Les modèles d'IA comme Chatgpt se sentent intelligents. J'ai l'impression que cela vous fait. Mais en réalité, il agit davantage comme une chambre d'écho. Malheureusement, dans certains cas, il leur renvoie l'illusion d'une personne, «confirmant» que ses pensées et ses sentiments sont réels. Heureusement, c'est quelque chose que Openai cherche à aborder avec de nouvelles fonctionnalités de détresse mentale de sa mise en œuvre dans Chatgpt.
Nouvelles fonctionnalités de détresse mentale Chatgpt
Selon Openai, il apporte des modifications à Chatgpt en ce qui concerne la détresse mentale. La société dit: «Chatgpt est formé pour répondre avec une honnêteté fondée.
La société reconnaît également que les utilisateurs pourraient utiliser le chatppt trop longtemps et inciteront doucement les utilisateurs à faire des pauses. « À partir d'aujourd'hui, vous verrez de doux rappels pendant les longues séances pour encourager les pauses. Nous continuerons à régler quand et comment ils se présentent pour qu'ils se sentent naturels et utiles. » Cela rappelle les fonctionnalités du bien-être numérique que nous avons vues sur des appareils mobiles comme iOS et Android.
Enfin, Openai améliorera la façon dont Chatgpt résout vos problèmes personnels. La société donne un exemple de la façon dont Chatgpt ne devrait pas donner aux utilisateurs une réponse à des questions comme si vous deviez rompre avec votre partenaire. Au lieu de cela, l'entreprise dit qu'elle devrait vous aider à réfléchir au problème.
Appel à la réglementation de l'IA
Si quoi que ce soit, ces cas rappellent que l'IA doit être réglementée. C'est honnêtement étonnant de voir jusqu'où les modèles d'IA sont passés depuis leur première introduction. Cependant, se pourrait-il que nous les développions trop vite sans vraiment savoir ce que nous déchaîtons sur le monde?
C'est pourquoi certains ont appelé l'IA à être réglementé. Récemment, des entreprises comme Google ont signé le code de pratique de l'IA de l'UE. Il s'agit d'un ensemble de règles convenu entre les sociétés d'IA qui opèrent dans l'UE. Cependant, aux États-Unis, c'est une autre histoire. Un projet de loi récent empêche essentiellement les États d'introduire sa propre réglementation. Au lieu de cela, le gouvernement souhaite une réglementation au niveau fédéral.
