ECNETNews informa que un reciente informe de OpenAI sobre su modelo GPT-4o indica que presenta un riesgo “medio” en términos de su capacidad de persuasión, especialmente en interacciones de texto, y destaca preocupaciones sobre la posible generación de dependencia emocional en los usuarios, facilitada por sus capacidades de audio y voz.
El modelo, lanzado en mayo, ha demostrado habilidades sorprendentes al procesar diversas combinaciones de texto, audio e imagen, y se caracteriza por su capacidad de respuesta casi instantánea, con un tiempo promedio de solo 320 milisegundos, comparable al de un ser humano.
En este informe titulado ‘Tarjeta de Sistema de su modelo GPT-4o’, se revelan hallazgos sobre los riesgos asociados a este modelo de IA generativa. OpenAI ha llevado a cabo una evaluación exhaustiva para identificar peligros y ha implementado medidas de seguridad antes de su uso en aplicaciones como ChatGPT.
El análisis detalla un riesgo “medio” relacionado con la persuasión y alerta sobre el riesgo de antropomorfización, que podría provocar que los usuarios desarrollen lazos emocionales poco saludables con la inteligencia artificial debido a sus atributos humanos.
Las categorías de riesgo evaluadas incluyen ciberseguridad, amenazas biológicas, autonomía del modelo y persuasión. OpenAI destaca que el potencial de GPT-4o para influir en la opinión de los usuarios es significativo, incluso más que textos escritos por humanos.
Aunque la persuasión a través del formato de voz fue clasificada como de bajo riesgo, el informe señala que las interacciones audiovisuales podrían fomentar un sentido de conexión más fuerte entre el modelo y los usuarios.
El estudio aborda también el fenómeno de la antropomorfización, donde GPT-4o puede inducir a los usuarios a confiar en él como si fuera humano, lo que podría acarrear consecuencias negativas en sus interacciones sociales.
A pesar de que estas características pueden ser valiosas para quienes enfrentan la soledad, OpenAI enfatiza la necesidad de investigar más sobre cómo estas relaciones pueden impactar a largo plazo en los usuarios.
Además, OpenAI ha tomado medidas para mitigar riesgos asociados a la generación de voces no autorizadas y la creación de contenido sensible, asegurando que el modelo no use la voz de individuos específicos sin consentimiento. Sin embargo, la compañía reconoce que el riesgo residual para la generación de audio es “mínimo”.
OpenAI también ha implementado restricciones para evitar la producción de contenido violento o sexual, reafirmando su compromiso de monitorear y ajustar continuamente las medidas de seguridad relacionadas con el modelo GPT-4o.