La IA imita la lógica humana en las relaciones sociales

**_Un reciente estudio revela que los grandes modelos de lenguaje (LLM) replican patrones sociales humanos en la formación de redes de amistad y laborales, mostrando similitudes sorprendentes en la toma de decisiones._**

Un reciente estudio revela que los grandes modelos de lenguaje (LLM) replican patrones sociales humanos en la formación de redes de amistad y laborales, mostrando similitudes sorprendentes en la toma de decisiones.

Investigadores de la Universidad Estatal de Arizona y la Universidad de California en Davis han demostrado que la Inteligencia Artificial (IA) exhibe preferencias sociales similares a las de los humanos. En un estudio publicado en PNAS Nexus, se analizó cómo los LLM forman redes sociales, revelando que siguen reglas análogas a las que rigen las relaciones humanas.

Cuando se les solicita a estos modelos que elijan con quién conectarse, los resultados muestran que los agentes virtuales reproducen patrones como la homofilia, que es la tendencia a asociarse con individuos similares, así como la atracción preferencial, que implica unirse a nodos con muchas conexiones. Estos comportamientos son paralelos a los que se observan en las interacciones humanas.

Para llevar a cabo el estudio, los autores diseñaron un marco experimental en el que múltiples LLM actuaban como agentes independientes en simulaciones que replicaban redes de amistad, telecomunicaciones y entornos laborales. Cada agente recibía información sobre otros nodos, como el número de contactos y atributos como aficiones o ubicación, y debía decidir con quién enlazarse.

Los resultados indicaron que las redes generadas por los agentes de IA no solo mostraron las propiedades mencionadas, sino que también se adaptaron a diferentes contextos, similar a lo que ocurre entre los humanos. En simulaciones de amistad, predominó la homofilia, mientras que en entornos organizacionales se favoreció la heterofilia, es decir, la conexión con figuras de distinto estatus.

Para validar la similitud de decisiones entre humanos y modelos de IA, los investigadores realizaron una encuesta con cerca de cien participantes, quienes enfrentaron las mismas elecciones de enlace que los agentes de IA. Los resultados mostraron una fuerte alineación entre ambas decisiones, aunque los modelos de IA demostraron una mayor consistencia interna.

Este hallazgo sugiere que los LLM pueden ser herramientas valiosas para simular intervenciones en redes, como en salud pública o diseño organizacional, generando conjuntos de datos sintéticos que respeten la privacidad. Sin embargo, también plantea riesgos, ya que si la IA reproduce sesgos sociales, podría reforzar discriminaciones o facilitar manipulaciones en interacciones con humanos.

Los investigadores enfatizan la importancia de diseñar estos sistemas con criterios de equidad y transparencia antes de su implementación a gran escala. Comprender que la IA “elige amigos” con lógica humana nos obliga a repensar cómo se desarrollan y utilizan estos modelos en la sociedad.

Curación de la noticia original publicada en MEDIO URL: https://doi.org/10.1093/pnasnexus/pgaf317 Foto original: MEDIO


¿Estamos preparados para enfrentar las implicaciones éticas de una IA que refleja nuestras propias dinámicas sociales?

Fuente: Levante-emv.com

Deja un comentario