OpenAI dice que la nueva versión de ChatGPT puede generar “dependencia emocional”
La compañía dirigida por Sam Altman ha destacado como resultado de una investigación interna un riesgo “medio” en las capacidades de persuasión del modelo, así como ha advertido sobre el riesgo de antropomorfización, que puede causar dependencia emocional en los usuarios

OpenAI ha advertido que su modelo GPT-4o registra un riesgo “medio” en relación con su capacidad de persuasión -sobre todo, en interacciones de texto- y que puede generar dependencia emocional en los usuarios, debido a sus avances de voz y audio.
Recibí las noticias en tu email
Accedé a las últimas noticias desde tu emailLa compañía dirigida por Sam Altman lanzó el modelo GPT-4o en el mes de mayo, cuando destacó sus habilidades para aceptar cualquier combinación de texto, audio e imagen y su capacidad para responder a una entrada de voz en solo 232 milisegundos, con un promedio de 320 milisegundos, que es similar a un tiempo de respuesta humana.
La tecnológica ha compartido ahora un informe interno denominado Tarjeta de Sistema de su modelo GPT-4o (GPT-4o System Card), en el que detalla los resultados de la investigación sobre la seguridad de este modelo de IA generativa. En este estudio se explica que se ha evaluado este modelo “exhaustivamente” para detectar posibles riesgos y, basándonos en ello, incorporar medidas de seguridad adecuadas, antes de implementarlo en ChatGPT o en la API.