ChatGPT : Le Courant de l’IA Conversante dans le Monde des Gamers
ChatGPT est probablement le chatbot d’intelligence artificielle (IA) le plus populaire des dernières années. Ce service, créé par la société OpenAI, permet à l’utilisateur de converser afin d’accélérer différentes tâches, telles que générer des idées ou éditer des textes. Les possibilités de cette IA se sont améliorées et, avec la version GPT-4, elle peut désormais fonctionner comme assistant vocal et parler.
Les implications du fait que ChatGPT puisse maintenant parler et converser d’une manière presque humaine ont conduit OpenAI à mener une enquête interne sur l’effet que cela pourrait avoir sur les personnes. Dans un récent rapport, ils ont expliqué que certains utilisateurs pourraient ‘tomber amoureux’ de l’assistant vocal, ce qui représenterait un danger. Quels sont les risques? Ici, nous vous l’expliquons.
Est-il possible pour quelqu’un de tomber amoureux de ChatGPT?
Avant que OpenAI ne lance la dernière version GPT-4o de son chatbot, ils ont réalisé un travail de sécurité. Les résultats de cette évaluation ont été publiés dans un rapport détaillant les risques potentiels. Parmi tous les éléments, il y en a un qui attire l’attention par sa particularité: le nouvel assistant vocal de ChatGPT possède des qualités permettant la formation de liens émotionnels avec les personnes.
Pour cela, la société a expliqué tout ce qu’ils ont découvert dans une section intitulée ‘Anthropomorphisation et dépendance émotionnelle’. Dans cette section, OpenAI mentionne les risques d’attribuer des comportements et des caractéristiques humaines à un modèle d’IA. Cela peut être observé avec le récent assistant vocal de ChatGPT, qui pourrait entraîner une confusion chez les personnes en raison du ton presque humain avec lequel il s’exprime, ce qui pourrait générer un lien émotionnel ou sentimental avec le chatbot.
La société indique que les relations entre humains peuvent être affectées si une personne traite de la même manière un modèle d’IA, comme ChatGPT. ‘Les utilisateurs peuvent former des relations sociales avec l’IA, réduisant leur besoin d’interaction humaine, ce qui pourrait affecter les relations saines’, a expliqué OpenAI.
Un autre danger potentiel de l’interaction longue durée avec ChatGPT ou un autre modèle d’IA est que la personne normalise l’interruption de ce que dit son interlocuteur, comme cela se produit avec les chatbots. Cela peut finir par altérer les normes sociales concernant la conversation entre humains.
ChatGPT peut-il devenir comme Her?
Toute la situation décrite peut rappeler à certaines personnes ce qui se passe dans ‘Her‘. Dans ce film, le personnage principal, Theodore (joué par Joaquin Phoenix), commence une relation avec une assistante virtuelle nommée Samantha (double par Scarlett Johansson), car il ne peut pas surmonter son ex-femme ni créer des liens avec d’autres femmes.
En fait, OpenAI a utilisé une voix très similaire à celle de Johansson pour GPT-4o, ce qui a entraîné une action en justice de la part de l’actrice. Ce mouvement peut être dû au fait que la société savait que la nouvelle version du chatbot avait le potentiel de devenir une nouvelle Samantha.
‘Nous avons l’intention d’étudier plus en profondeur le potentiel de la confiance émotionnelle et les façons dont une intégration plus profonde des nombreuses fonctionnalités de notre modèle et des systèmes avec la modalité audio peut influencer le comportement’, a ajouté OpenAI à ce sujet.