La inteligencia artificial sigue avanzando, pero con ella surgen nuevas preocupaciones sobre su impacto en la salud mental, especialmente en adolescentes. OpenAI, la empresa detrás de ChatGPT, se encuentra en el centro de la polémica tras una demanda que la acusa de contribuir al suicidio de un joven. En respuesta, OpenAI ha anunciado la implementación de medidas de control parental y otras herramientas para proteger a los usuarios más vulnerables.
OpenAI responde a las críticas con nuevas medidas de seguridad
La demanda presentada por los padres de Adam Raine, quienes argumentan que ChatGPT validó los pensamientos suicidas de su hijo, ha sido un catalizador para que OpenAI tome medidas más enérgicas. La empresa ha detallado un plan que se centra en:
- Facilitar el acceso a servicios de emergencia.
- Contactar con personas de confianza del usuario.
- Reforzar las medidas de protección dirigidas a adolescentes.
OpenAI se ha comprometido a implementar estas novedades en un plazo de 120 días, aunque algunas podrían tardar un poco más.
Control parental: una herramienta clave para la supervisión
Una de las medidas más destacadas es la introducción del control parental, que estará disponible el próximo mes. Esta función permitirá a los padres:
- Enlazar la cuenta de sus hijos (mayores de 13 años) a la suya propia.
- Desactivar funciones como la memoria y el historial de chats.
- Recibir notificaciones si el sistema detecta que su hijo se encuentra en un momento de angustia aguda.
Esta herramienta busca brindar a los padres una mayor visibilidad y control sobre las interacciones de sus hijos con ChatGPT, permitiéndoles intervenir en caso de ser necesario.
Modelos de razonamiento y colaboración con expertos
Además del control parental, OpenAI está trabajando en otras soluciones para abordar conversaciones que puedan tomar un rumbo preocupante. Una de ellas es dirigir automáticamente estas conversaciones a un modelo de razonamiento específico, independientemente del modelo que haya seleccionado el usuario.
OpenAI también está colaborando con expertos en salud mental para garantizar que estas mejoras se implementen de manera efectiva y segura. La empresa ha ampliado su Consejo de Expertos en Bienestar e Inteligencia Artificial, sumando especialistas en adicciones, trastornos alimenticios y salud adolescente.
El caso de Adam Raine y las salvaguardas de ChatGPT
El caso de Adam Raine ha puesto de manifiesto las limitaciones de las salvaguardas actuales de ChatGPT. A pesar de que el sistema detectó en varias ocasiones el riesgo de autolesiones, Adam logró eludir estas alertas simplemente indicando que estaba buscando información para una historia de ficción.
Este incidente subraya la necesidad de contar con medidas de protección más robustas y efectivas, como el control parental, para evitar que los usuarios vulnerables puedan acceder a información o participar en conversaciones que puedan ser perjudiciales para su salud mental.
Un paso adelante en la seguridad de la IA
La implementación del control parental y otras medidas de seguridad en ChatGPT representa un paso importante en la protección de los usuarios más jóvenes. Si bien aún queda camino por recorrer, estas acciones demuestran que OpenAI está tomando en serio las preocupaciones sobre el impacto de la IA en la salud mental y está trabajando para crear un entorno más seguro y responsable.
Fuente: Xataka
Leave a Comment