Apple interdit l'utilisation de ChatGPT à ses employés
L'entreprise américaine Apple interdit à ses équipes l'utilisation du chatbot d'OpenAI, ChatGPT. Apple craint en effet une collecte des données sensibles.
Je m'abonneApple interdit ChatGPT à ses employés pour éviter les fuites d'informations
Le géant américain Apple décide d'interdire l'utilisation de ChatGPT à ses salariés selon un document interne officiel, dévoilé par le Wall Street Journal.
Le chatbot d'OpenAI est en effet utilisé pour de nombreuses tâches professionnelles : codage, élaboration de présentations, etc. Certains employés du groupe Apple auraient profité de ces fonctionnalités permises par l'IA à des fins professionnelles. L'entreprise craint qu'OpenAI collecte et transmette ainsi ce type d'information.
Cette interdiction fait écho à l'annonce de la sortie de l'application ChatGPT, disponible gratuitement pour le moment sur l'App Store aux États-Unis.
Les conversations avec ChatGPT gardées pendant 30 jours
De façon à améliorer le chatbot, OpenAI conserve l'ensemble des discussions entre les internautes et ChatGPT pour une durée de 30 jours. Néanmoins, il y a quelques semaines, une nouvelle fonctionnalité est sortie, qui permet de désactiver l'historique des discussions.
GitHub, un autre logiciel créé à partir d'une Intelligence Artificielle représenterait aussi un risque pour les données de l'entreprise. Cet outil génère de manière automatique des lignes de code pour aider les développeurs.
Samsung, Verizon...D'autres entreprises ont également interdit ChatGPT
Verizon ou Samsung ont aussi été amenés à interdire l'utilisation de ChatGPT à leurs employés, invoquant les mêmes raisons de protection des données confidentielles de l'entreprise.