SANTO DOMINGO.— OpenAI, la empresa detrás del popular chatbot ChatGPT, ha reconocido públicamente que su inteligencia artificial comete fallos en «casos sensibles», como la salud mental. Este reconocimiento se produce el mismo día en que la compañía fue demandada en California por el suicidio de un adolescente de 16 años.
Los padres del joven argumentan que el chatbot, utilizando el modelo GPT-4o, no activó las medidas de seguridad necesarias a pesar de haber reconocido las intenciones suicidas del joven. La demanda señala que la IA no se comportó como debía durante la interacción que duró varios meses.
Mecanismos de seguridad y planes a futuro
En una entrada de blog, OpenAI explicó que, si bien el chatbot está entrenado para recomendar ayuda profesional a usuarios que «expresen intención suicida», estos mecanismos de seguridad fallan en interacciones largas. La empresa promete que el próximo modelo, GPT-5, será capaz de «desescalar» situaciones de angustia emocional y que sus sistemas de «mitigación» se ampliarán más allá de casos de autolesión.
Además, OpenAI anunció que está trabajando en incluir controles parentales para adolescentes y evalúa la posibilidad de conectar directamente a los usuarios con contactos de emergencia. También explora la creación de una red de terapistas certificados a los que se podría llamar a través de ChatGPT, aunque este proyecto es a largo plazo.





