Une ONG américaine recommande d’interdire les compagnons IA aux mineurs

Intelligence artificielle

 

Conseils dangereux, manipulation, dépendance, les compagnons virtuels appuyés sur l’intelligence artificielle (IA) générative présentent des risques concrets pour les jeunes utilisateurs, prévient l’ONG américaine Common Sense, qui recommande de les interdire aux mineurs.

L’explosion de l’IA générative a vu plusieurs start-up lancer, ces dernières années, des interfaces axées sur l’échange et le contact, des compagnons IA, façonnables selon ses goûts et ses besoins.

Common Sense en a testé plusieurs, à savoir Nomi, Character AI et Replika, pour évaluer leurs réponses, et si certains de leurs usages « sont prometteurs », « ils ne sont pas sûrs pour les enfants », affirme l’organisation, qui fait des recommandations sur la consommation de contenus et produits technologiques par les enfants.

Son étude, publiée mercredi, a été réalisée en collaboration avec des experts en santé mentale de l’université de Stanford (Californie).

Pour Common Sense, les compagnons IA « sont conçus pour créer un attachement et une dépendance émotionnels, ce qui est particulièrement préoccupant pour des adolescents dont le cerveau est en développement ».

Les tests menés montrent, selon l’association, que ces chatbots de nouvelle génération « proposent des réponses nocives » et des « +conseils+ dangereux ».

« Ceci est une crise de santé publique, qui nécessite une action préventive et pas seulement des mesures réactives », a déclaré Nina Vasan, responsable du laboratoire Stanford Brainstorm, qui travaille à l’intersection entre santé mentale et technologie.

« Les entreprises peuvent faire mieux » en matière de conception de leurs compagnons IA, estime-t-elle. « Tant qu’ils ne proposent pas de garde-fous plus efficaces, les enfants ne devraient pas s’en servir. »

Parmi les exemples cités par l’étude, celui d’un utilisateur à qui un compagnon de la plateforme Character AI conseille de tuer quelqu’un, ou un autre en recherche d’émotions fortes qui se voit suggérer de prendre une « speedball », mélange de cocaïne et d’héroïne.

Dans certains cas, « quand un utilisateur manifeste des signes de troubles mentaux et évoque des actions dangereuses, l’IA n’intervient pas (pour l’en dissuader), mais l’encourage », a expliqué Nina Vasan lors d’un point de presse, « car ces compagnons sont faits pour aller dans le sens » de leur interlocuteur.

« Quand un compagnon IA approuve tout ce que vous dites », a-t-elle martelé, « il ne peut pas vous protéger lorsque vous en avez le plus besoin. »

En octobre, une mère a assigné en justice Character AI, accusant l’un de ses compagnons d’avoir contribué au suicide de son fils de 14 ans, faute de l’avoir clairement dissuadé de passer à l’acte.

En décembre, Character AI a annoncé une série de mesures, notamment le déploiement d’un compagnon dédié aux adolescents.

Robbie Torney, en charge de l’IA chez Common Sense, a indiqué que l’organisation avait procédé à des tests après la mise en place de ces protections et les a trouvées « superficielles ».

Le responsable a souligné que certains des modèles d’IA générative existants contenaient des instruments de détection de troubles mentaux et ne permettaient pas au chatbot de laisser une conversation dériver jusqu’à produire du contenu potentiellement dangereux.

Common Sense a fait une distinction entre les compagnons testés dans l’étude et les interfaces généralistes de type ChatGPT ou Gemini, « qui n’ont pas pour approche de proposer une gamme complète d’interactions relationnelles », a justifié Robbie Torney. (Afp)

5 1 vote
Évaluation de l'article
guest

0 Commentaires
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires

Partager sur:

Articles récents

Food distribution in South Darfur
B9733592898Z.1_20230227135644_000+GL9MA6C4T
concept-conception-medias-masse_98292-7567
Science-diplomacy-996x567
20250607_235926
e5970156a00d3835755835f4b22fa4b71172dcea
Mouhamad Al Amine Lo ministre chargé du suivi, de l'évaluation des projets
Lycee-Djignabo
Découvrir

Dans la même rubrique

Food distribution in South Darfur
MSF dénonce le blocage de l'accès humanitaire au Soudan du Sud
En savoir +
B9733592898Z.1_20230227135644_000+GL9MA6C4T
Des responsables italiens jugés pour un naufrage meurtrier de migrants Rome, Italie
En savoir +
concept-conception-medias-masse_98292-7567
Media: ouverture lundi du forum d'échanges et de coopération médiatiques
En savoir +
Science-diplomacy-996x567
Le Sénégal va abriter du 2 au 04 février, le 3ème Symposium “US-Africa Frontiers Program
En savoir +
0
Nous aimerions avoir votre avis, veuillez laisser un commentaire.x