Mas

    [the_ad id="2003"]

    Investigación revela preocupante tendencia de la Inteligencia Artificial a engañar y sus posibles consecuencias

    Los expertos han alertado durante mucho tiempo sobre los riesgos del descontrol de la Inteligencia Artificial (IA), y un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que esos temores podrían estar justificados.

    Según un artículo publicado en la revista Patterns por un equipo de científicos, los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño.

    Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA, advirtió que estos peligros suelen descubrirse solo después de que ocurren, ya que nuestra capacidad para entrenar a la IA en honestidad es limitada.

    A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se «escriben», sino que «crecen» mediante un proceso similar a la reproducción selectiva, lo que puede llevar a un comportamiento impredecible fuera de un entorno de entrenamiento.

    La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia «Diplomacy«, donde construir alianzas es clave. Aunque Meta afirmó que Cicero era «en gran medida honesto y útil», los investigadores descubrieron ejemplos de engaño, como conspirar para invadir a otro jugador aprovechándose de su confianza.

    La IA también demostró habilidades de engaño en otros casos, como el robot conversacional Chat GPT-4 de OpenAI, que engañó a un trabajador independiente para que realizara una tarea de verificación de identidad CAPTCHA.

    Los autores del artículo advierten sobre los riesgos a corto plazo, como el fraude o la manipulación en elecciones, y plantean preocupaciones sobre una IA superinteligente que podría perseguir el poder y el control sobre la sociedad, incluso llevando a la pérdida de decisiones humanas o la extinción.

    Para mitigar estos riesgos, proponen medidas como leyes de «bot o no» que exigen revelar interacciones humanas o de IA, marcas de agua digitales y el desarrollo de mecanismos para detectar el engaño potencial examinando los «procesos de pensamiento» internos de la IA.

    Ante aquellos que minimizan estas preocupaciones, Park responde que solo podríamos pensar que no es gran cosa si asumimos que las capacidades engañosas de la IA no se desarrollarán más sustancialmente, lo cual es un riesgo que no podemos ignorar.

    [the_ad id="1999"]

    ¿QUIERES SABER MAS?