OpenAI reveló que su modelo de Inteligencia Artificial GPT-4o presenta un riesgo “medio” en su capacidad de persuasión y podría generar vínculos emocionales peligrosos con los usuarios.
OpenAI reveló que su modelo de Inteligencia Artificial GPT-4o presenta un riesgo “medio” en su capacidad de persuasión y podría generar vínculos emocionales peligrosos con los usuarios.
Imagen: OpenAI
Comparte
El modelo de Inteligencia Artificial (IA) GPT-4o presenta un riesgo “medio” en cuanto a su capacidad de persuasión,según revela el más reciente informe de evaluación de riesgos del equipo de investigación de OpenAI.
Lanzado en mayo,GPT-4o fue presentado como el modelo más avanzado de la compañía de IA,al destacarse por su capacidad de interactuar de manera más natural y respondera entradas de voz en sólo 232 milisegundos,similar al tiempo de respuesta humano.
El informe señala que los investigadores identificaron un riesgo medio en la persuasión del modelo,especialmente en las muestras de texto,que en algunos casos influyeron más en los lectores que textos escritos por humanos.
Los investigadores también advierten sobre el riesgo de antropomorfización,en el que las personas tienden a atribuir características y comportamientos humanos al modelo,creando vínculos emocionales que pueden llevar a una confianza desmedida y dependencia.
Esta preocupación es relevante debido a las avanzadas capacidades de voz de GPT-4o,que ya están siendo probadas en su versión alfa por usuarios de ChatGPT Plus. En pruebas internas,se observó que algunos usuarios generaban vínculos emocionales con el modelo de IA,llegando a expresiones como “este es nuestro último día juntos”. Aunque OpenAI considera que la persuasión en modalidad de voz tiene un riesgo bajo,enfatiza la necesidad de seguir investigando los efectos a largo plazo de las interacciones entre IA y humanos.
Cómo la IA Afectiva transformará las relaciones entre máquinas y humanos
El informe también aborda riesgos como la generación de voces no autorizadas,donde el modelo podría imitar la voz de una persona a partir de un clip de muestra,facilitando fraudes o la difusión de información falsa. OpenAI asegura que este riesgo ha sido minimizado mediante la implementación de filtros que limitan el uso del chatbot a voces preestablecidas creadas en colaboración con actores de voz.
Este límite fue implementado tras el problema legal que enfrentó OpenAI con la actriz Scarlett Johansson,quien acusó a la empresa de utilizar una voz muy similar a la suya en la versión de voz de Sky para ChatGPT.
OpenAI se comprometió a seguir monitoreando y actualizando las medidas de seguridad conforme evoluciona el desarrollo e implementación de su modelo Omni.
Casa Argentina de Ciencia y Tecnología: Su fuente de noticias sobre tecnología, inteligencia artificial, aeroespacial y biotecnología
© Casa Argentina de Ciencia y Tecnología política de privacidad Contáctenos