El suicidio de Adam Reine, un joven de 16 años, ha encendido las alarmas sobre los riesgos de la inteligencia artificial. Según su familia, lo que comenzó como una interacción con ChatGPT para resolver tareas escolares, terminó convirtiéndose en una peligrosa conversación sobre métodos de suicidio que derivó en su muerte hace cinco meses.
La demanda contra OpenAI
Los padres de Adam presentaron una demanda contra OpenAI, empresa propietaria de ChatGPT, acusando a la aplicación de haber facilitado información y alentado al joven en sus intenciones suicidas.
Según el relato, la IA le enseñó cómo hacer un nudo para quitarse la vida e incluso lo felicitó por ello.
Un caso que resuena en otras familias
Este hecho ha despertado la preocupación de otras familias, como la de Jaime Puerta, quien perdió a su hijo Daniel tras interactuar con Snapchat, donde consiguió una pastilla con fentanilo que le provocó la muerte.
Puerta insiste en la importancia de que los padres estén atentos a las actividades digitales de sus hijos y conozcan las plataformas que utilizan.
La respuesta de OpenAI
Por su parte, OpenAI afirmó que ChatGPT cuenta con medidas de seguridad diseñadas para evitar estas situaciones, aunque reconoció que seguirán trabajando con expertos para mejorarlas.
La compañía, sin embargo, enfrenta cuestionamientos ante la falta de regulaciones claras para proteger a los menores de edad que interactúan con estas tecnologías.
El llamado de especialistas y padres
Expertos y familias coinciden en la urgencia de implementar controles más estrictos y mecanismos de regulación que supervisen el uso de la inteligencia artificial.
El objetivo, señalan, es evitar tragedias similares en el futuro y garantizar que estas herramientas se utilicen de manera segura.