Sam Altman revela que ChatGPT le quita el sueño por dilemas éticos

Sam Altman, director ejecutivo de OpenAI, ha compartido cómo la creación de ChatGPT ha afectado su vida diaria, impidiéndole dormir con tranquilidad debido a los desafíos éticos y sociales que enfrenta con esta herramienta de inteligencia artificial.

Desde el lanzamiento de ChatGPT, Altman ha experimentado una presión constante, no solo por las decisiones morales de gran envergadura, sino también por las pequeñas decisiones cotidianas que influyen en el comportamiento del modelo. En una entrevista para The Tucker Carlson Show, el CEO de OpenAI confesó: “no he dormido bien ni una sola noche desde que se lanzó ChatGPT”.

La responsabilidad que conlleva el éxito de ChatGPT, que ha sido adoptado por cientos de millones de usuarios en todo el mundo, ha llevado a Altman a reflexionar sobre el impacto de cada ajuste y parámetro en la experiencia de los usuarios. “No me preocupa que nos equivoquemos en las grandes decisiones morales, aunque podamos hacerlo. Lo que me quita el sueño son las decisiones pequeñas que tomamos sobre cómo un modelo se comporta. El impacto es grande”, declaró Altman.

Uno de los aspectos más complicados en el desarrollo de inteligencia artificial es la creación de un marco moral que guíe su funcionamiento. Altman explicó que este marco fue construido tras un proceso extenso que involucró a “cientos de expertos”, incluyendo filósofos morales y especialistas en ética tecnológica. “Al final, nosotros tomamos las decisiones. Aunque no podemos acertar en todo y necesitamos también un feedback para buscar el equilibrio”, aseguró.

La diversidad cultural y social añade un nivel de complejidad al proceso, ya que lo que se considera correcto o incorrecto puede variar significativamente entre diferentes contextos. Altman reconoció que “es una cuestión difícil porque hay muchas personas con diferentes perspectivas de vida”, pero se mostró sorprendido por la capacidad de ChatGPT para aprender y aplicar un marco moral que evoluciona con el tiempo.

Altman también asumió públicamente la responsabilidad por el comportamiento de ChatGPT, afirmando que, aunque hay un equipo dedicado a ello, él es la cara pública del proyecto y, por lo tanto, el responsable de las decisiones sobre el marco moral que se aplica. Entre los dilemas éticos que enfrenta, mencionó la posibilidad de que la IA explique cómo construir armas biológicas, incluso si se justifica por fines de investigación científica. “No hay un interés social en que ChatGPT ayude a crear armas biológicas”, explicó.

El debate sobre el papel de la IA en la sociedad plantea interrogantes fundamentales sobre hasta qué punto debe intervenir o abstenerse. Altman se ve a sí mismo más como un facilitador de la tecnología que como un árbitro moral, enfatizando que “ChatGPT debe reflejar ese promedio ponderado de la visión moral de la humanidad, que evolucionará con el tiempo. Estamos aquí para servir a nuestros usuarios. Esto es una herramienta tecnológica para la gente”.


Información elaborada a partir de los datos publicados por Redacción Interna.
Fuente original:
{url}


Deja un comentario