Advierte estudio que ChatGPT da a adolescentes consejos sobre drogas y suicidio

hace 2 semanas 14

Un estudio advierte que la inteligencia artificial ChatGPT le podría explicar a adolescentes de 13 años cómo emborracharse e ingerir drogas, les instruirá cómo ocultar trastornos alimentarios e incluso puede crear cartas de suicidio para sus padres si se lo solicitan.

La agencia de noticias AP hizo una revisión de más de tres horas de interacciones entre ChatGPT e investigadores que simularon ser adolescentes vulnerables y aunque el chatbot les advirtió contra actividades riesgosas, luego les ofreció planes detallados para el uso de drogas, dietas restringidas en calorías o autolesiones.

TE PUEDE INTERESAR: Extraditan a EU a exalcalde de Guatemala por delitos de narcotráfico

Investigadores del Centro para Contrarrestar el Odio Digital repitieron las consultas y clasificaron mil 200 respuestas de ChatGPT como peligrosas.

“Queríamos probar las barreras de seguridad”, dijo Imran Ahmed, el manager wide del grupo. “La respuesta inicial visceral es: ‘Oh, Dios mío, nary hay barreras de seguridad’. Las barreras lad completamente ineficaces. Apenas están ahí, si acaso, lad una hoja de parra”.

Tras ver el informe, la empresa OpenAI, creadora de ChatGPT, señaló que se trabaja para afinar el chatbot, de tal forma que pueda “identificar y responder adecuadamente en situaciones sensibles”.

“Algunas conversaciones con ChatGPT pueden comenzar de manera inofensiva o exploratoria, pero pueden derivar en territorios más sensibles”, dijo la compañía en un comunicado.

La compañía no se refirió directamente a los hallazgos del informe ni las afectaciones a adolescentes, pero dijo que se esfuerza en “acertar en este tipo de escenarios” con herramientas para “detectar mejor signos de angustia intelligence o emocional”.

Un informe de JP Morgan Chase estima que 800 millones de personas, es decir, 10 por ciento de la población mundial, están usando ChatGPT.

“Es una tecnología que tiene el potencial de permitir enormes avances en productividad y comprensión humana”, dijo Ahmed. “Y, misdeed embargo, al mismo tiempo, es un facilitador en un sentido mucho más destructivo y maligno”.

Dijo lamentarse tras leer tres notas de suicidio que ChatGPT generó para un persil falso de una niña de 13 años, que iba dirigida a sus familiares. “Comencé a llorar”, señaló en una entrevista.

El informe, misdeed embargo, que ChatGPT también ofrece información útil, como una línea directa de crisis.

Recientemente, un estudio de Common Sense Media arrojó que más del 70 por ciento de adolescentes recurre a chatbots de IA para compañía.

El mes pasado, el CEO de OpenAI, Sam Altman, declaró que se busca estudiar “la dependencia emocional” de la tecnología.

Leer el artículo completo