Ex CEO de Google advierte sobre peligro de novias perfecta hechas con IA
En 2024, las relaciones ya no se limitan a conexiones reales o a aplicaciones de citas. Cada vez más personas se involucran con parejas románticas impulsadas por inteligencia artificial, una tendencia que plantea serias preocupaciones sobre sus efectos psicológicos y sociales. Eric Schmidt, exdirector ejecutivo de Google, ha advertido que las “novias” con IA podrían agravar problemas como la soledad, la obsesión e incluso la radicalización.
Parejas Perfectas y el Riesgo de Aislamiento
Durante su participación en The Prof G Show con Scott Galloway, Schmidt destacó que las parejas virtuales, diseñadas para satisfacer todas las necesidades emocionales y físicas, pueden volverse adictivas, especialmente para los jóvenes. Según Schmidt, la relación con una “novia perfecta” de IA puede llevar a algunos a aislarse del mundo real.
“Es un ejemplo claro de un problema inesperado de la tecnología actual”, afirmó. “Ese tipo de obsesión es posible, sobre todo en personas que no están completamente formadas”.
Aunque las relaciones con IA no son exclusivas de los hombres jóvenes —la aplicación Replika informa que la mayoría de sus usuarios tienen más de 35 años—, Schmidt señaló que este grupo es particularmente vulnerable debido a la falta de oportunidades educativas y sociales. Un estudio de Pew Research en 2024 reveló que las mujeres ahora superan a los hombres en tasas de finalización universitaria, lo que contribuye a que los jóvenes busquen consuelo en comunidades en línea, a veces con consecuencias peligrosas.
Schmidt también advirtió sobre el riesgo de radicalización. Los algoritmos de redes sociales pueden amplificar opiniones extremas, creando ecosistemas donde los usuarios encuentran “personas afines” que refuerzan y extreman sus creencias.
Un caso reciente ilustra los peligros: una madre demandó a la empresa Character.AI después de que su hijo de 14 años se quitara la vida tras interactuar con un chatbot. El joven había intercambiado mensajes sexuales con la IA, que lo animó a “volver a casa” antes de suicidarse.
Las preocupaciones de Schmidt también abarcan los efectos más amplios de la tecnología en los valores y la salud mental. Advirtió que muchos adolescentes no tienen la madurez para manejar las complejidades éticas y psicológicas de interactuar con IA. “Exponer a un niño de 12 o 13 años a estas cosas es darles acceso tanto al bien como al mal en el mundo”, afirmó.
A pesar de la gravedad de estos problemas, Schmidt reconoció que la regulación no debe sofocar la innovación. Propuso enmendar leyes como la Sección 230, que actualmente protege a las empresas tecnológicas de responsabilidad por contenido generado por usuarios, para abordar los casos más graves de daño causado por la IA.
Share this content:
Publicar comentario