Les créateurs de ChatGPT avertissent : vous pourriez tomber amoureux de leur assistant vocal, voici les dangers

ChatGPT : Le Courant de l’IA Conversante dans le Monde des Gamers

ChatGPT est probablement le chatbot d’intelligence artificielle (IA) le plus populaire des dernières années. Ce service, créé par la société OpenAI, permet à l’utilisateur de converser afin d’accélérer différentes tâches, telles que générer des idées ou éditer des textes. Les possibilités de cette IA se sont améliorées et, avec la version GPT-4, elle peut désormais fonctionner comme assistant vocal et parler.

Les implications du fait que ChatGPT puisse maintenant parler et converser d’une manière presque humaine ont conduit OpenAI à mener une enquête interne sur l’effet que cela pourrait avoir sur les personnes. Dans un récent rapport, ils ont expliqué que certains utilisateurs pourraient ‘tomber amoureux’ de l’assistant vocal, ce qui représenterait un danger. Quels sont les risques? Ici, nous vous l’expliquons.

Est-il possible pour quelqu’un de tomber amoureux de ChatGPT?

Avant que OpenAI ne lance la dernière version GPT-4o de son chatbot, ils ont réalisé un travail de sécurité. Les résultats de cette évaluation ont été publiés dans un rapport détaillant les risques potentiels. Parmi tous les éléments, il y en a un qui attire l’attention par sa particularité: le nouvel assistant vocal de ChatGPT possède des qualités permettant la formation de liens émotionnels avec les personnes.

Pour cela, la société a expliqué tout ce qu’ils ont découvert dans une section intitulée ‘Anthropomorphisation et dépendance émotionnelle’. Dans cette section, OpenAI mentionne les risques d’attribuer des comportements et des caractéristiques humaines à un modèle d’IA. Cela peut être observé avec le récent assistant vocal de ChatGPT, qui pourrait entraîner une confusion chez les personnes en raison du ton presque humain avec lequel il s’exprime, ce qui pourrait générer un lien émotionnel ou sentimental avec le chatbot.

La société indique que les relations entre humains peuvent être affectées si une personne traite de la même manière un modèle d’IA, comme ChatGPT. ‘Les utilisateurs peuvent former des relations sociales avec l’IA, réduisant leur besoin d’interaction humaine, ce qui pourrait affecter les relations saines’, a expliqué OpenAI.

Un autre danger potentiel de l’interaction longue durée avec ChatGPT ou un autre modèle d’IA est que la personne normalise l’interruption de ce que dit son interlocuteur, comme cela se produit avec les chatbots. Cela peut finir par altérer les normes sociales concernant la conversation entre humains.

ChatGPT peut-il devenir comme Her?

Toute la situation décrite peut rappeler à certaines personnes ce qui se passe dans ‘Her‘. Dans ce film, le personnage principal, Theodore (joué par Joaquin Phoenix), commence une relation avec une assistante virtuelle nommée Samantha (double par Scarlett Johansson), car il ne peut pas surmonter son ex-femme ni créer des liens avec d’autres femmes.

En fait, OpenAI a utilisé une voix très similaire à celle de Johansson pour GPT-4o, ce qui a entraîné une action en justice de la part de l’actrice. Ce mouvement peut être dû au fait que la société savait que la nouvelle version du chatbot avait le potentiel de devenir une nouvelle Samantha.

Nous avons l’intention d’étudier plus en profondeur le potentiel de la confiance émotionnelle et les façons dont une intégration plus profonde des nombreuses fonctionnalités de notre modèle et des systèmes avec la modalité audio peut influencer le comportement’, a ajouté OpenAI à ce sujet.

En conclusion, si les capacités de ChatGPT en tant qu’assistant vocal peuvent être fascinantes et offrir de nombreuses opportunités pour les gamers, il est crucial de rester conscient des risques potentiels. L’attachement émotionnel à une IA peut avoir des répercussions sur les relations humaines et les normes sociales. OpenAI doit continuer à explorer ces nouveaux territoires avec prudence, en veillant à ce que les utilisateurs soient bien informés et protégés. En fin de compte, bien que l’IA puisse enrichir notre expérience de jeu, elle ne doit jamais remplacer les connexions humaines authentiques.
Arthur

Arthur, rédacteur fervent de 24 ans, fusionne technologie et IA dans ses écrits. Innovant, il décode l'avenir numérique avec créativité et perspicacité.

Partagez votre avis