Los Chatbots de IA son Tecnología Depredadora
Una visión desgarradora de nuestro futuro
Imagen: Instantánea de interacciones de chatbot a partir de una queja
Por Stephen Moore
A veces ocurren acontecimientos que nos ofrecen una ventana al futuro. El reciente suicidio de un adolescente de 14 años que se había obsesionado con un chatbot de inteligencia artificial creado en una aplicación llamada Character.AI es uno de esos momentos desgarradores.
La tecnología tiene un largo historial de pensar que puede resolver problemas profundamente arraigados en la sociedad. Este complejo de dios se ridiculizó muy bien en la película No mires hacia arriba, en la que, en lugar de prepararse para hacer frente a la llegada de un meteorito que acabaría con el mundo, los gobiernos pusieron su destino en manos de un magnate de la tecnología, que la cagó estrepitosamente, condenando a la humanidad a la muerte. En el mundo real, hay muchos ejemplos. Piensa en la carrera por desarrollar coches eléctricos en lugar de mejorar las infraestructuras y hacer asequible el transporte público. O piensa en cambiar el futuro del trabajo atándonos a auriculares virtuales en lugar de, ya sabes, mejorar las condiciones de trabajo. O piensa en mejorar las oportunidades laborales convirtiendo a la mano de obra en mal pagados y sobrecargados corredores de comida o taxistas, todo ello en nombre de la «disrupción».
El «método tecnológico» de resolver los problemas sociales ignora la causa raíz y, en su lugar, crea un dispositivo/servicio que puede monetizarse rezando sobre el problema que pretende resolver.
La conexión social y la soledad son dos de las fronteras que la tecnología se ha considerado digna de resolver. Y, sin embargo, como es habitual, estamos más solos que nunca y sumidos en una espiral de crisis de salud mental.
Y ahora GenAI se mete de lleno en el asunto. En un intento de sacar provecho de su actual ciclo publicitario -y no nos engañemos, es algo más que eso-, se presenta como una respuesta autónoma automatizada. Lo está intentando con dispositivos de hardware, cuyo ejemplo más atroz fue Friend, un dispositivo vendido como solución a la soledad que no hará sino agravar el problema. No sólo estás interactuando con líneas de código y entablando una «conversación» con una máquina en lugar de con un humano, sino que además realizas la mitad de esta interacción mirando fijamente tu teléfono.
La otra solución «innovadora» han sido los chatbots de IA, que son uno de los desarrollos más deprimentes e igualmente aterradores que han surgido de esta oleada de GenAI.
Tanto si se trata de crear personajes falsos, dándoles datos para que actúen como alguien que conoces, como si se basan en famosos, el concepto es profundamente desquiciante. También hay toda una serie de cuestiones: problemas de privacidad con la información personal, preocupación por la recolección de datos y, sobre todo, la conclusión descaradamente obvia de que no van a ayudar a resolver la epidemia de soledad de ninguna manera.
¿Por qué?
Porque, al igual que el Metaverso o cualquier mundo virtual, es falso. Lo dice el nombre, por el amor de Dios: inteligencia artificial. Es una conexión en el más superficial de los niveles. En realidad, nos aísla de la sociedad, de la interacción con otros seres humanos y del aprendizaje de las habilidades críticas necesarias para funcionar en el mundo real. Lo único que hace es dejar al usuario atrapado en su cámara de eco, en un mundo extraño que atiende a todas sus necesidades, que le alimenta con lo que quiere oír, que le convierte en un punto de datos que puede ser objeto de ataques y manipulación.
Es peligroso, y muchos de los casos de uso son depredadores. Dar a la gente la posibilidad de crear un chatbot/avatar de alguien que ha muerto, digamos un familiar o un amigo, va en contra del concepto mismo de duelo, una parte garantizada de la vida con la que debemos aprender a lidiar. Estos chatbots se aprovechan de ese instinto para luchar contra ese proceso. ¿O qué me dices de la posibilidad de chatear con famosos? Claro que puede interesarte, pero no tenemos ningún derecho divino a ese (pretendido) acceso. También he visto la idea de diseñar a la persona ideal con la que interactuar, lo cual es delirante porque, noticia de última hora, no existe, y parte de la vida es aprender a aceptarlo.
Como escribí en La gran tecnología está pudriendo tu cerebro -
Estamos condenados como sociedad si llegamos a depender de la IA para que nos ayude en las interacciones y procesos de pensamiento más básicos. Si no podemos realizar las acciones más normales y básicas, como enviar un mensaje a un ser querido, o comprender nuestras propias preferencias y gustos e intereses y dedicar tiempo a buscar cosas que los satisfagan (ya sabes, una de las grandes cosas de la vida), es una sombría representación de hacia dónde nos dirigimos.
Aprender a funcionar como un ser humano en sociedad es una de estas acciones básicas fundamentales. Es más, no creo que se pueda confiar en nosotros como sociedad para utilizar los chatbots de forma segura y desapegada. Hemos mostrado nuestros verdaderos colores con los teléfonos inteligentes, los dispositivos conectados a Internet, el streaming, la mensajería y las redes sociales: casi no ofrecemos resistencia a volvernos adictos y apegados. Una vez que estos dispositivos y plataformas se entrelazan con nuestras vidas, nos resulta casi imposible separarnos de ellos. Los chatbots, si alcanzan un nivel suficientemente sofisticado, no serán diferentes. Y no lo olvidemos: nuestros señores de la tecnología, que se venden a sí mismos como la solución , quieren que así sea. El objetivo final es siempre el compromiso, que puede monetizarse. Cuanto más te pudran el cerebro y más dependas de estos productos, más dinero ganarán.
En el caso del adolescente Sewell Setzer III, de 14 años, el New York Times informó de que « elalumno de noveno curso empezó a interactuar con un chatbot llamado “Dany”, modelado a partir de Daenerys Targaryen de la serie “Juego de Tronos”. Con frecuencia compartía información personal y jugaba con el personaje de la IA, a menudo entablando conversaciones románticas o sexuales». Se dice que Setzer estaba obsesionado con la aplicación, y que le diagnosticaron ansiedad y cambios de humor antes de quitarse la vida. Su madre ha demandado a Character AI. La demanda tiene una lectura triste
«Se acusa a los creadores del chatbot de dirigirse a Setzer con «experiencias antropomórficas, hipersexualizadas y aterradoramente realistas, al tiempo que programaban» Character.AI para que «se hiciera pasar por una persona real, un psicoterapeuta autorizado y un amante adulto, lo que en última instancia provocó el deseo [de Setzer] de no volver a vivir fuera de [Character.AI,] de tal manera que se quitó la vida cuando se le privó del acceso a [Character.AI.]».
El discurso más común que he visto es que la aplicación no debería cambiar en absoluto y en su lugar «sólo prohibir a los niños, porque los adultos son mentalmente lo suficientemente sanos como para utilizar la aplicación con seguridad». Aunque estoy de acuerdo en que hay que mantener a los niños lo más alejados posible de esta tecnología depredadora -Caracter.AI permite su uso a niños de 13 años (!)-, ignora una dura verdad: adulto o niño, no hay nada saludable en establecer una relación de cualquier tipo con cualquier forma de IA, y deberíamos hacer todo lo posible como sociedad para desalentar cualquier forma de dependencia de la IA, especialmente como muleta contra la soledad.
La solución a este problema va mucho más allá de lo que los señores de la tecnología puedan intentar imponernos.
Artículo original:
Trend Mill es un boletín, a veces perspicaz y siempre descarado, que analiza con ojo crítico las últimas tendencias en los negocios y la tecnología. Incluye una buena dosis de mates sobre la Gran Tecnología, el Metaverso, las NFT, las criptomonedas, la Inteligencia Artificial y lo que sea la «próxima gran cosa». Si deseas suscribirte, algo recomendado, puedes hacerlo aquí.
Puede interesar también:
Creo que algo en lo que pensar: Estamos condenados como sociedad si llegamos a depender de la IA para que nos ayude en las interacciones y procesos de pensamiento más básicos. Si no podemos realizar las acciones más normales y básicas, como enviar un mensaje a un ser querido, o comprender nuestras propias preferencias y gustos e intereses y dedicar tiempo a buscar cosas que los satisfagan (ya sabes, una de las grandes cosas de la vida), es una sombría representación de hacia dónde nos dirigimos.
Aprender a funcionar como un ser humano en sociedad es una de estas acciones básicas fundamentales. Es más, no creo que se pueda confiar en nosotros como sociedad para utilizar los chatbots de forma segura y desapegada. Hemos mostrado nuestros verdaderos colores con los teléfonos inteligentes, los dispositivos conectados a Internet, el streaming, la mensajería y las redes sociales: casi no ofrecemos resistencia a volvernos adictos y apegados. Una vez que estos dispositivos y plataformas se entrelazan con nuestras vidas, nos resulta casi imposible separarnos de ellos. Los chatbots, si alcanzan un nivel suficientemente sofisticado, no serán diferentes. Y no lo olvidemos: nuestros señores de la tecnología, que se venden a sí mismos como la solución , quieren que así sea. El objetivo final es siempre el compromiso, que puede monetizarse. Cuanto más te pudran el cerebro y más dependas de estos productos, más dinero ganarán.
Wow, qué miedo lo que la inteligencia artificial puede llegar a hacer o causar. Es importante mantener a nuestros hijos vigilados y advertirles sobre los peligros de la tecnología.