Tu Primer Agente de IA: Más Sencillo de lo que Crees
La guía completa (con código) y su uso en las ciencias sociales.
Tu Primer Agente de IA: más Sencillo de lo que Crees
Por: Nir Diamant (esta parte del artículo es una adaptación del suyo en inglés titulado “Your First AI Agent: Simpler Than You Think: The Complete Guide (with Code)”
Te explicaré qué son los agentes de IA y te guiaré a través de un ejemplo sencillo para ayudarte a crear tu primer agente fácilmente usando LangGraph.
Empecemos con una introducción
El mundo de la inteligencia artificial está experimentando una profunda transformación. Durante años, hemos construido modelos especializados de IA, cada uno diseñado para sobresalir en una tarea específica. Tenemos modelos que pueden escribir texto, otros que pueden analizar sentimientos y otros que pueden clasificar documentos. Estos modelos son como especialistas cualificados, cada uno desempeñando su función particular con una experiencia impresionante. Pero faltaba algo: la capacidad de coordinar estas capacidades, de comprender el contexto y de tomar decisiones sobre qué hacer a continuación.
Piensa en cómo un experto humano aborda una tarea compleja. Cuando un detective investiga un caso, no se limita a recopilar pruebas de forma aislada. Entrevista a los testigos y, en función de lo que averigüe, decide qué pistas seguir a continuación. Puede que note una contradicción que le haga volver a examinar pruebas anteriores. Cada dato influye en sus siguientes pasos, y mantiene una imagen completa de la investigación en su mente.
Agentes de IA
Este enfoque fragmentado de la IA creó importantes desafíos. Supuso una pesada carga para los usuarios gestionar flujos de trabajo complejos, se perdió un contexto valioso entre los pasos y careció de la adaptabilidad necesaria para las tareas del mundo real. Cada modelo funcionaba de forma aislada, como especialistas que no podían comunicarse entre sí ni ajustar su trabajo en función de lo que descubrían sus colegas.
Aquí es donde los agentes de IA revolucionan el panorama. Representan un cambio fundamental en la forma en que abordamos la inteligencia artificial. Un agente actúa más como un coordinador experto, orquestando múltiples capacidades mientras mantiene una comprensión holística de la tarea. Puede tomar decisiones informadas sobre qué hacer a continuación basándose en lo que aprende a lo largo del camino, de forma muy similar a como lo haría un experto humano.
¿Qué hace diferente a un agente de IA?
Para entender esta transformación, examinemos cómo los agentes manejan una tarea específica: analizar un artículo de investigación sobre un nuevo tratamiento médico.
Un enfoque tradicional de IA fragmenta el análisis en pasos aislados: resumir el artículo, extraer términos clave, categorizar el tipo de investigación y generar ideas. Cada modelo realiza su tarea de forma independiente, ajeno a los hallazgos de los demás. Si el resumen revela que la metodología del artículo no está clara, no hay forma automatizada de volver atrás y examinar esa sección con más cuidado. El proceso es rígido, predeterminado y a menudo pasa por alto conexiones cruciales.
Un agente de IA, sin embargo, aborda la tarea con la adaptabilidad de un investigador humano. Puede comenzar con una visión general, pero puede ajustar dinámicamente su enfoque en función de lo que descubre. Cuando encuentra detalles metodológicos significativos, puede optar por analizar esa sección más a fondo. Si encuentra referencias intrigantes a otras investigaciones, puede marcarlas para investigarlas más a fondo. El agente mantiene una comprensión completa del artículo mientras guía activamente su análisis en función de los conocimientos emergentes.
Este enfoque dinámico y consciente del contexto representa la diferencia clave entre la IA tradicional y los agentes. En lugar de ejecutar una secuencia fija de pasos, el agente actúa como una guía inteligente a través del análisis, tomando decisiones estratégicas basadas en todo lo que aprende a lo largo del camino.
La arquitectura de la inteligencia
En esencia, los agentes de IA se basan en varios principios fundamentales que permiten este enfoque más sofisticado de la resolución de problemas.
En primer lugar, está el concepto de gestión de estados🗂️. Piensa en esto como la memoria de trabajo del agente: su capacidad para mantener el contexto sobre lo que ha aprendido y lo que está tratando de lograr. Al igual que un investigador humano tiene en cuenta todo el caso mientras examina las pruebas individuales, un agente mantiene la conciencia de su tarea general mientras realiza operaciones específicas.
Luego está el marco de toma de decisiones⚖️. No se trata solo de elegir entre opciones predeterminadas, sino de comprender qué herramientas y enfoques están disponibles y seleccionar los más adecuados en función de la situación actual. Es similar a cómo un detective podría decidir si interroga a otro testigo o analiza pruebas físicas basándose en lo que ha aprendido hasta ahora.
Por último, está la capacidad de utilizar herramientas🧰 de manera eficaz. Un agente no solo tiene acceso a diferentes capacidades, sino que entiende cuándo y cómo utilizarlas. Es como un artesano que no solo sabe de qué herramientas dispone, sino cuándo es más apropiada cada una y cómo combinarlas eficazmente.
Entender LangGraph, un marco para el flujo de trabajo de los agentes de IA
Ahora que entendemos qué son los agentes de IA y por qué son transformadores, exploremos cómo construir uno. Aquí es donde LangGraph entra en escena. LangGraph es un marco de trabajo de LangChain que proporciona la estructura y las herramientas que necesitamos para crear sofisticados agentes de IA, y lo hace a través de un potente enfoque basado en grafos.
Piensa en LangGraph como en la mesa de dibujo de un arquitecto: nos da las herramientas para diseñar cómo pensará y actuará nuestro agente. Al igual que un arquitecto dibuja planos que muestran cómo se conectan las diferentes habitaciones y cómo fluirá la gente a través de un edificio, LangGraph nos permite diseñar cómo se conectarán las diferentes capacidades y cómo fluirá la información a través de nuestro agente.
El enfoque basado en gráficos es particularmente intuitivo. Cada capacidad que tiene nuestro agente se representa como un nodo en el gráfico, como las habitaciones de un edificio. Las conexiones entre estos nodos, llamadas bordes, determinan cómo fluye la información de una capacidad a otra. Esta estructura facilita la visualización y modificación del funcionamiento de nuestro agente, al igual que el plano de un arquitecto facilita la comprensión y modificación del diseño de un edificio.
un ejemplo de agente LangGraph (¡que vamos a implementar!)
Creación de nuestro primer agente: un sistema de análisis de texto
Pongamos en práctica estos conceptos creando un agente que pueda analizar documentos de texto. Nuestro agente será capaz de entender el tipo de texto que está mirando, identificar la información importante que contiene y crear resúmenes concisos. Es como crear un asistente de investigación inteligente que puede ayudarnos a entender documentos de forma rápida y exhaustiva.
Puedes encontrar el código completo en mi repositorio de GitHub (6K⭐), junto con otros 42 tutoriales sobre la creación de varios agentes de IA, clasificados por nivel de dificultad y tipo de caso de uso:
Configuración de nuestro entorno
Antes de sumergirnos en el código, configuremos correctamente nuestro entorno de desarrollo. Esto solo llevará unos minutos y garantizará que todo funcione correctamente.
Crear un entorno virtual Primero, abre tu terminal y crea un nuevo directorio para este proyecto:
bash
mkdir ai_agent_project cd ai_agent_project
Crear y activar un entorno virtual:
bash
# Windows
python -m venv agent_env agent_env\Scripts\activate
# macOS/Linux
python3 -m venv agent_env source agent_env/bin/activate
Instalar paquetes necesarios Con tu entorno virtual activado, instala los paquetes necesarios:
bash
pip install langgraph langchain langchain-openai python-dotenv
Configura tu clave API de OpenAI Necesitarás una clave API de OpenAI para utilizar sus modelos. A continuación te explicamos cómo conseguir una:
Crea una cuenta o inicia sesión
Navega hasta la sección Claves API
Haz clic en «Crear nueva clave secreta»
Copia tu clave API
Ahora crea un archivo .env
en el directorio de tu proyecto:
bash
# Windows
echo OPENAI_API_KEY=your-api-key-here > .env
# macOS/Linux
echo "OPENAI_API_KEY=your-api-key-here" > .env
Sustituye «tu-clave-API-aquí» por tu clave API de OpenAI real.
Crear un archivo de prueba Vamos a asegurarnos de que todo funciona. Crea un archivo llamado
test_setup.py
:
python
import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI
# Load environment variables
load_dotenv()
# Initialize the ChatOpenAI instance
llm = ChatOpenAI(model="gpt-4o-mini")
# Test the setup
response = llm.invoke("Hello! Are you working?") print(response.content)
Ejecútalo para verificar tu configuración:
bash
python test_setup.py
Si ves una respuesta, ¡enhorabuena! Tu entorno está listo para funcionar.
Ahora que todo está listo, comencemos a construir nuestro agente. Primero, necesitamos importar las herramientas que usaremos:
import os
from typing import TypedDict, List
from langgraph.graph import StateGraph, END
from langchain.prompts import PromptTemplate
from langchain_openai import ChatOpenAI
from langchain.schema import HumanMessage
Cada una de estas importaciones desempeña un papel crucial en la funcionalidad de nuestro agente. La clase StateGraph
proporcionará la base para la estructura de nuestro agente, mientras que PromptTemplate
y ChatOpenAI
nos dan las herramientas para interactuar con los modelos de IA de manera efectiva.
Diseño de la memoria de nuestro agente
Al igual que la inteligencia humana requiere memoria, nuestro agente necesita una forma de hacer un seguimiento de la información. Creamos esto usando un TypedDict:
clase State(TypedDict): text:
str classification:
str entities: List[str] summary: str
Este diseño de estado es fascinante porque refleja cómo los humanos procesamos la información. Cuando leemos un documento, mantenemos varias piezas de información simultáneamente: recordamos el texto original, entendemos qué tipo de documento es, anotamos nombres o conceptos importantes y formamos una comprensión concisa de sus puntos principales. Nuestra estructura de estado captura estos mismos elementos.
llm = ChatOpenAI(model=«gpt-4o-mini»,temperature=0)
A continuación, inicializamos el LLM que queremos utilizar (en este caso, «gpt-4o-mini»,
pero puedes utilizar cualquier LLM que desees. Si trabajas con la API de OpenAI, tendrás que crear un token privado en su sitio web que te permita utilizarlo) con temperatura = 0. Temperatura = 0 en LLMs significa que el modelo siempre elegirá el token más probable/probable en cada paso, haciendo que los resultados sean deterministas y consistentes. Esto da lugar a respuestas más centradas y precisas, pero potencialmente menos creativas en comparación con ajustes de temperatura más altos que introducen más aleatoriedad en la selección de tokens.
Creación de las capacidades básicas de nuestro agente
Ahora crearemos las habilidades reales que utilizará nuestro agente. Cada una de estas capacidades se implementa como una función que realiza un tipo específico de análisis.
Primero, creemos nuestra capacidad de clasificación:
def classification_node(state: State):
''' Classify the text into one of the categories: News, Blog, Research, or Other '''
prompt = PromptTemplate(
input_variables=["text"],
template="Classify the following text into one of the categories: News, Blog, Research, or Other.\n\nText:{text}\n\nCategory:"
)
message = HumanMessage(content=prompt.format(text=state["text"]))
classification = llm.invoke([message]).content.strip()
return {"classification": classification}
Esta función actúa como un bibliotecario experto que puede determinar rápidamente qué tipo de documento está mirando. Observa cómo utilizamos una plantilla de mensajes para dar instrucciones claras y coherentes a nuestro modelo de IA. La función toma nuestro estado actual (que incluye el texto que estamos analizando) y devuelve su clasificación.
A continuación, creamos nuestra capacidad de extracción de entidades:
def entity_extraction_node(state: State):
''' Extract all the entities (Person, Organization, Location) from the text '''
prompt = PromptTemplate(
input_variables=["text"],
template="Extract all the entities (Person, Organization, Location) from the following text. Provide the result as a comma-separated list.\n\nText:{text}\n\nEntities:"
)
message = HumanMessage(content=prompt.format(text=state["text"]))
entities = llm.invoke([message]).content.strip().split(", ")
return {"entities": entities}
Esta función es como un lector atento que identifica y recuerda todos los nombres, organizaciones y lugares importantes mencionados en el texto. Procesa el texto y devuelve una lista de estas entidades clave.
Por último, implementamos nuestra capacidad de resumen:
def summarization_node(state: State):
''' Summarize the text in one short sentence '''
prompt = PromptTemplate(
input_variables=["text"],
template="Summarize the following text in one short sentence.\n\nText:{text}\n\nSummary:"
)
message = HumanMessage(content=prompt.format(text=state["text"]))
summary = llm.invoke([message]).content.strip()
return {"summary": summary}
Esta función actúa como un editor experto que puede destilar la esencia de un documento en un resumen conciso. Toma nuestro texto y crea un resumen breve e informativo de sus puntos principales.
Uniendo todo
Ahora viene la parte más emocionante: conectar estas capacidades en un sistema coordinado:
workflow = StateGraph(State)
# Add nodes to the graph
workflow.add_node("classification_node", classification_node)
workflow.add_node("entity_extraction", entity_extraction_node)
workflow.add_node("summarization", summarization_node)
# Add edges to the graph
workflow.set_entry_point("classification_node") # Set the entry point of the graph
workflow.add_edge("classification_node", "entity_extraction")
workflow.add_edge("entity_extraction", "summarization")
workflow.add_edge("summarization", END)
# Compile the graph
app = workflow.compile()
¡Enhorabuena, acabamos de crear un agente!
Un recordatorio de cómo se ve:
Aquí es donde brilla el poder de LangGraph. No solo estamos recopilando diferentes capacidades, estamos creando un flujo de trabajo coordinado que determina cómo funcionan estas capacidades en conjunto. Piensa en ello como la creación de una línea de producción para el procesamiento de información, donde cada paso se basa en los resultados de los anteriores.
La estructura que hemos creado le dice a nuestro agente que:
Empiece por comprender con qué tipo de texto está tratando.
Luego identifique entidades importantes dentro de ese texto.
Por último, crea un resumen que recoja los puntos principales.
Finaliza el proceso una vez que el resumen esté completo.
Ver a nuestro agente en acción
Ahora que hemos creado nuestro agente, es hora de ver cómo funciona con texto del mundo real. Aquí es donde la teoría se encuentra con la práctica, y donde podemos comprender realmente el poder de nuestro enfoque basado en gráficos. Probemos nuestro agente con un ejemplo concreto:
sample_text = """
OpenAI has announced the GPT-4 model, which is a large multimodal model that exhibits human-level performance on various professional benchmarks. It is developed to improve the alignment and safety of AI systems.
additionally, the model is designed to be more efficient and scalable than its predecessor, GPT-3. The GPT-4 model is expected to be released in the coming months and will be available to the public for research and development purposes.
"""
state_input = {"text": sample_text}
result = app.invoke(state_input)
print("Classification:", result["classification"])
print("\nEntities:", result["entities"])
print("\nSummary:", result["summary"])
Cuando ejecutamos este código, nuestro agente procesa el texto a través de cada una de sus capacidades, y obtenemos el siguiente resultado::
Classification: News
Entities: ['OpenAI', 'GPT-4', 'GPT-3']
Summary: OpenAI's upcoming GPT-4 model is a multimodal AI that aims for human-level performance, improved safety, and greater efficiency compared to GPT-3.
En español sería:
Clasificación: Noticias
Entidades: ['OpenAI', 'GPT-4', 'GPT-3']
Resumen: El próximo modelo GPT-4 de OpenAI es una IA multimodal que pretende alcanzar un rendimiento a nivel humano, una mayor seguridad y una mayor eficiencia en comparación con GPT-3.
Analicemos lo que está sucediendo aquí, ya que demuestra maravillosamente cómo nuestro agente coordina sus diferentes capacidades para comprender el texto de manera integral.
En primer lugar, nuestro nodo de clasificación identificó correctamente esto como un artículo de noticias. Esto tiene sentido dado el formato de estilo de anuncio del texto y el enfoque en los acontecimientos actuales. El agente reconoció las características distintivas de la redacción de noticias: información oportuna, presentación objetiva y enfoque en un acontecimiento específico.
A continuación, la capacidad de extracción de entidades identificó a los actores clave de esta historia: OpenAI como organización, y GPT-4 y GPT-3 como las entidades técnicas clave que se están discutiendo. Observa cómo se centró en las entidades más relevantes, filtrando los detalles menos importantes para darnos una idea clara de quién y de qué trata este texto.
Por último, la capacidad de resumen reunió toda esta comprensión para crear un resumen conciso pero completo. El resumen capta los puntos esenciales: el anuncio de GPT-4, sus mejoras clave con respecto a GPT-3 y su importancia. No se trata de una selección aleatoria de frases, sino de una destilación inteligente de la información más importante.
Comprender el poder del procesamiento coordinado
Lo que hace que este resultado sea particularmente impresionante no son solo los resultados individuales, sino cómo cada paso se basa en los demás para crear una comprensión completa del texto. La clasificación proporciona un contexto que ayuda a enmarcar la extracción de entidades, y ambos informan el proceso de resumen.
Piensa en cómo esto refleja la comprensión lectora humana. Cuando leemos un texto, naturalmente formamos una comprensión de qué tipo de texto es, anotamos nombres y conceptos importantes, y formamos un resumen mental, todo mientras mantenemos las relaciones entre estos diferentes aspectos de comprensión.
Aplicaciones prácticas y perspectivas
El ejemplo que hemos construido demuestra un patrón fundamental que puede aplicarse a muchos escenarios. Aunque lo usamos para analizar un artículo de noticias sobre IA, la misma estructura podría adaptarse para analizar:
Documentos de investigación médica, donde es crucial comprender el tipo de estudio, los términos médicos clave y los hallazgos principales. Documentos legales, donde es esencial identificar a las partes involucradas, las cláusulas clave y las implicaciones generales. Informes financieros, donde la comprensión del tipo de informe, las métricas clave y las principales conclusiones impulsan la toma de decisiones.
Comprender las limitaciones de nuestro agente
Es importante comprender que nuestro agente, aunque poderoso, opera dentro de los límites que hemos definido. Sus capacidades están determinadas por los nodos que hemos creado y las conexiones que hemos establecido entre ellos. Esto no es tanto una limitación como una característica: hace que el comportamiento del agente sea predecible y fiable.
En primer lugar, está la cuestión de la adaptabilidad. A diferencia de los humanos, que pueden ajustar de forma natural su enfoque cuando se enfrentan a nuevas situaciones, nuestro agente sigue una ruta fija a través de sus tareas. Si el texto de entrada contiene patrones inesperados o requiere un enfoque de análisis diferente, el agente no puede modificar dinámicamente su flujo de trabajo para manejar mejor estos casos.
Luego está el desafío de la comprensión contextual. Si bien nuestro agente puede procesar texto de manera efectiva, opera exclusivamente dentro del alcance del texto proporcionado. No puede recurrir a un conocimiento más amplio ni comprender matices sutiles como referencias culturales o significados implícitos que podrían ser cruciales para un análisis preciso. (Puedes superar esto con un componente de búsqueda en Internet si la información se puede encontrar en Internet).
El agente también se enfrenta a un desafío común en los sistemas de IA: el problema de la caja negra. Aunque podemos observar los resultados finales de cada nodo, no tenemos una visibilidad completa de cómo el agente llega a sus conclusiones. Esto dificulta la depuración de problemas o la comprensión de por qué el agente puede producir ocasionalmente resultados inesperados. (una excepción aquí es el uso de modelos de razonamiento como GPT-o1 o DeepSeek R1 que te muestran su forma de pensar, pero aún así no puedes controlarlo)
Por último, está la cuestión de la autonomía. Nuestro agente requiere una cuidadosa supervisión humana, sobre todo para validar sus resultados y garantizar su precisión. Como muchos sistemas de IA, está diseñado para aumentar las capacidades humanas en lugar de reemplazarlas por completo.
Estas limitaciones determinan cómo debemos utilizar y desplegar tales agentes en aplicaciones del mundo real. Comprenderlas nos ayuda a diseñar sistemas más eficaces y a saber cuándo la experiencia humana debe formar parte del proceso.
Nota: Agradecemos a Nir Diamant su colaboración en este artículo. El suyo en inglés es el siguiente:
Agentes de IA y Ciencias Sociales
Los recientes avances en inteligencia artificial, especialmente con la aparición de los modelos de lenguaje grande (LLM), han llevado a replantearse las posibilidades de la inteligencia artificial general. Las crecientes capacidades de la IA similares a las humanas también están atrayendo la atención en la investigación en ciencias sociales, lo que ha dado lugar a varios estudios que exploran la combinación de estos dos campos.
Los agentes de IA en las ciencias sociales implican el uso de IA, en particular de grandes modelos de lenguaje, para simular el comportamiento humano, estudiar fenómenos sociales y, potencialmente, mejorar la investigación y la comprensión de las ciencias sociales.
Al igual que los primeros mitos y parábolas destacaron las cuestiones sociales y éticas que rodean a la inteligencia creada por el hombre, las máquinas inteligentes actuales presentan sus propias e interesantes cuestiones sociales, y un creciente cuerpo de investigación ha comenzado a explorar y comprender a los agentes de IA como entidades sociales.
En particular, los agentes de IA actuales, especialmente aquellos basados en modelos de lenguaje grandes, exhiben habilidades cognitivas, de razonamiento lógico y lingüísticas que igualan o superan a las de los humanos, así como características de comportamiento únicas. Las comunidades compuestas por agentes de IA también exhiben comportamientos emergentes similares a las sociedades humanas (como señala el trabajo de O'Brien, Park y colaboradores, publicado en 2023). Esto proporciona un caso interesante para intentar extender las ciencias sociales a fenómenos más universales de las máquinas, y también brinda una valiosa oportunidad para reevaluar un axioma fundamental de las ciencias sociales: el comportamiento humano puede entenderse como poseedor de características sociales únicas. Explorar la IA desde una perspectiva de las ciencias sociales también puede proporcionar conocimientos y orientación cruciales para hacer que el desarrollo de la IA sea más congruente con las necesidades sociales y los valores humanos.
El uso de agentes de IA para la simulación sirve como método técnico que puede aplicarse en ambas direcciones, pero con objetivos diferentes. Cuando se utiliza para lo primero, el objetivo de los investigadores es hacer que el comportamiento de los agentes de IA se acerque lo más posible al comportamiento humano para estudiar las leyes de funcionamiento de la sociedad humana de una manera rentable, rápida y con aversión al riesgo ético (como lo señalan dos trabajos publicados en 2022, de Park y de Salehi, con sus respectivos colaboradores). Cuando se utiliza para esto último, el objetivo es explorar las leyes de comportamiento de la propia IA, con un enfoque particular en sus aspectos únicos, especialmente aquellos que difieren de las leyes operativas de la sociedad humana.
“Si las IA sociales con capacidad de acción están a punto de surgir y tienen el potencial de perturbar sustancialmente la sociedad, probablemente deberíamos pensar ahora en cómo aprender a vivir con ellas.
Esto incluye desentrañar una amplia gama de preguntas en torno a los posibles riesgos y beneficios de la IA social y su desarrollo y uso éticos y responsables, preguntas que tocan la influencia y manipulación social mediada por la IA que potencialmente conducen a una pérdida de la agencia humana, e incluso preguntas en torno a los posibles beneficios de los modelos de IA que pueden mejorar sustancialmente la sociedad.
Sin embargo, lo que impulsó este experimento mental no fue tanto los posibles riesgos y beneficios, o las vías para desarrollar y gobernar una IA social agéntica responsable, sino más bien cómo, si la IA social agéntica se convierte en una realidad, aprenderemos las habilidades necesarias para vivir con máquinas que son más hábiles que la mayoría de los humanos a la hora de pulsar nuestros botones emocionales y accionar nuestras palancas cognitivas para hacer las cosas.
(…)
Si nos remontamos a cómo desarrollamos la intuición, la comprensión y las habilidades para trabajar eficazmente con otros seres humanos a través de la influencia mutua (y reconociendo que, en la mayoría de los casos, esto es algo bueno), ¿cuán relevantes serán cuando interactuemos con IA sociales donde las reglas pueden ser muy diferentes?
¿Cuán vulnerable nos hará un desajuste entre cómo pensamos que funciona el mundo y cómo funciona en realidad a la manipulación en presencia de IA sociales con agencia?
¿Y qué hará falta para provocar los cambios de comportamiento necesarios para que las personas prosperen en un futuro así, para tener la resiliencia de no ser manipuladas indebidamente; la capacidad de mantener su propia agencia; y la comprensión para garantizar que la IA social agéntica beneficie a la sociedad en lugar de disminuirla?
Lo que hace que estas preguntas sean especialmente difíciles es que es probable que tengamos que aprender a vivir con IA social agéntica en un plazo de tiempo comprimido, dada la tasa actual de innovación. No tendremos el lujo de aprender las reglas tácitas de interacción a través del proceso normal y prolongado de juego y observación, o los años de prueba y error que la mayoría de nosotros tardamos en ser socialmente hábiles. En su lugar, tendremos solo unos pocos años, incluso meses, para desarrollar las habilidades sociales necesarias para vivir con tales IA.
Y esto sugiere que, a diferencia de cómo aprendemos a ser agentes humanos eficaces en una sociedad exclusivamente humana, necesitaremos enfoques estratégicos e intencionados para desarrollar las habilidades «sociales» necesarias para vivir y trabajar con máquinas que saben cómo enamorarnos de ellas para conseguir que nos comportemos como ellas quieren.”
-Andrew Maynard
Apéndice: Agentes de la IA en las Ciencias Sociales
1. IA para las ciencias sociales:
Simulación del comportamiento humano: Los agentes de IA pueden utilizarse para simular el comportamiento de individuos o grupos en diversos contextos sociales, lo que permite a los investigadores explorar dinámicas sociales complejas y poner a prueba hipótesis.
Estudio de fenómenos sociales: La IA puede ayudar a analizar grandes conjuntos de datos, identificar patrones y comprender las tendencias sociales de forma más eficaz.
Mejora de los métodos de investigación: La IA puede utilizarse para mejorar la investigación mediante encuestas, los experimentos en línea, el análisis automatizado de contenidos y los modelos basados en agentes, que se utilizan habitualmente en la investigación en ciencias sociales.
Ejemplos:
Simulación de la personalidad: los agentes de IA pueden entrenarse para imitar las personalidades de individuos reales, basándose en entrevistas y otros datos, lo que permite a los investigadores explorar cómo las personas toman decisiones e interactúan.
Estudio de la influencia social: los investigadores pueden utilizar agentes de IA para investigar cómo la presión social y la dinámica de grupo influyen en las opiniones y los comportamientos.
Análisis de redes sociales: La IA puede utilizarse para analizar grandes cantidades de datos de redes sociales con el fin de identificar tendencias, sentimientos y posibles sesgos.
2. La IA como ciencia social:
Examen de la IA como entidad social: Este enfoque se centra en comprender a los agentes de IA como entidades sociales con sus propias capacidades cognitivas y lingüísticas, y en cómo interactúan con los humanos y otros agentes de IA.
Abordar las preocupaciones éticas: A medida que los sistemas de IA se integran más en la sociedad, es importante examinar las implicaciones éticas de su uso, incluidas cuestiones de sesgo, privacidad y responsabilidad.
Comprender la dinámica social: Los científicos sociales pueden contribuir al desarrollo de la IA proporcionando información sobre el comportamiento humano, las normas sociales y los contextos culturales.
Ejemplos:
Identificar sesgos en la IA: Los científicos sociales pueden ayudar a identificar y mitigar los sesgos en los algoritmos de IA, garantizando que los sistemas de IA sean justos y equitativos.
Diseño de agentes socialmente inteligentes: Los científicos sociales pueden contribuir al diseño de agentes de IA capaces de comprender y responder a las señales y emociones sociales.
Estudio del impacto de la IA en la sociedad: Los científicos sociales pueden examinar los impactos sociales y económicos más amplios de la IA, incluidos sus efectos en el empleo, la desigualdad y la democracia.
3. Conceptos y desafíos clave:
Inteligencia social:la capacidad de los agentes de IA para comprender y responder a las señales, emociones e intenciones sociales.
Sesgo en la IA:Los modelos de IA pueden reflejar y amplificar los sesgos presentes en los datos con los que se entrenan, lo que conduce a resultados injustos o discriminatorios.
Consideraciones éticas:El desarrollo y despliegue de sistemas de IA plantean importantes cuestiones éticas sobre la privacidad, la autonomía y la responsabilidad.
Colaboración interdisciplinaria:Abordar los desafíos y oportunidades de la IA en las ciencias sociales requiere la colaboración entre informáticos, científicos sociales y otros expertos.
Qué perdida estoy con estas nuevas tecnologías jajajs