Mas

    ¿Está la inteligencia artificial libre de caer en la estupidez artificial?

    Madrid (EFE).- Hay quien augura que la inteligencia artificial será capaz de traducir idiomas o de escribir mejor que los humanos; de pintar o de crear complejas composiciones musicales; o que las máquinas conducirán o realizarán operaciones quirúrgicas de altísimo riesgo mejor que las personas más cualificadas.

    Pero ¿está la inteligencia artificial libre de caer en los mismos errores que los humanos, incluso en la estupidez artificial?; la respuesta es no, y durante los últimos años ya se han registrado casos y se han sucedido los errores; uno de los más sonados: la aplicación que interpretó la imagen de dos personas negras como si fueran dos simios.

    Capaces de aprender y de pensar, de desarrollar cualidades humanas -como la intuición o la creatividad- las máquinas aprendieron hace casi setenta años a diferenciar entre izquierda y derecha, y desde entonces se han impuesto a campeones mundiales del ajedrez o del póker, reconocen rasgos faciales o la voz, traducen de forma simultánea, conducen de manera autónoma y perfeccionan el diagnóstico médico.

    La inteligencia artificial (IA) será uno de los mejores aliados para afrontar los principales desafíos de la humanidad, pero millones de personas -de forma consciente o no- la utilizan ya de forma cotidiana (navegación, geolocalización, computación o asistentes virtuales) y sus utilidades y aplicaciones son infinitas.

    Robótica, redes neuronales, algoritmos, bases de datos inteligentes; utilidades ilimitadas y en medio de las cuales irrumpe el debate sobre la ética de esta tecnología, sobre el riesgo de que acrecienten las distintas brechas que ya existen (geográficas o generacionales) y de que las máquinas puedan llegar a ser completamente autónomas y a desobedecer o incumplir las funciones para las que fueron diseñadas.

    Surgen en este contexto los laboratorios de ideas para reflexionar y debatir sobre IA, sobre la ética y sobre la importancia de que las tecnologías no queden al margen de los valores, de que las máquinas estén al servicio de las personas y no al revés y de que la sociedad perciba la IA como una oportunidad y no como una amenaza.

    El presidente de We The Humans -un laboratorio de ideas independiente-, Juan Ignacio Rouyet, observó que la propia Comisión Europea propone un marco regulatorio de la IA basado en cuatro niveles: desde el riesgo «mínimo» hasta el «inaceptable», y situó en este nivel los usos que estarían completamente prohibidos, como que un gobierno use esta tecnología para conocer mejor a un ciudadano.

    En declaraciones a EFE, Rouyet apuntó que algo tan aparentemente inofensivo como un navegador puede escudriñar datos sobre la personalidad de un individuo y conocer por ejemplo si acude más a librerías o a bares, lo que afecta de una forma directa a la libertad y a la intimidad de la persona.

    Y en el mismo sentido el investigador Pedro Meseguer recordó que el anonimato que existía antes se está perdiendo, pero incidió en que los «temores» hacia esta tecnología se pueden neutralizar con una legislación clara que determine un tratamiento concreto de los datos personales recogidos por estas aplicaciones y que se haga cumplir por parte de las compañías tecnológicas.

    Meseguer, del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas (CSIC) español, subrayó a EFE que, como cualquier otra tecnología, la IA puede ser «neutra» -cita en ese sentido los diferentes usos que se puede hacer del fuego o de la tecnología nuclear-.

    El presidente de We The Humans mantiene que se trata de una tecnología «muy poderosa» porque identifica patrones y porque aprende, por lo que sus usos son ilimitados «e insospechados». La IA ha sido capaz -recordó- de pintar «El próximo Rembrandt», un retrato «al estilo» del pintor neerlandés, cuando aprendió a reconocer sus patrones de pintura; «pero la IA no fue creativa, pintó lo que le dijeron».

    Profesor en varias universidades, Rouyet mantiene además que las brechas y las desigualdades que provocan las nuevas tecnologías van a ser cada vez mayores, y se pregunta en ese sentido si el dueño y director de Meta, Mark Zuckerberg, está pensando implantar el «metaverso» en Sierra Leona, o si el robot humanoide diseñado por Tesla -cuyo coste rondará los 20.000 dólares- está pensado también para el mercado etíope o si estará al alcance de cualquiera.

    Y un riesgo añadido, según el presidente de esta organización: que la IA acabe modificando la conducta humana cuando la persona delega en esa tecnología su autonomía o la toma de decisiones. «Podemos dejar que un coche conduzca, pero también que un sistema decida a quién contratar o a quién condenar».

    «Eso es delegar nuestra autonomía, pero no en la inteligencia artificial, sino en manos de quien la ha diseñado», manifestó Juan Ignacio Rouyet, y aseguró que durante los últimos años ya se han registrado ejemplos claros de resultados incorrectos y de «estupidez artificial».

    En la inteligencia artificial «el alimento» son los datos, y si esos datos llevan algún tipo de sesgo el resultado final estará también viciado. «Si en un sistema de valoración de puestos de trabajo, los datos de entrada tienen perfiles de hombres con sueldos más altos que las mujeres, el sistema recomendará sueldos más altos para los hombres», mantiene el responsable de este «laboratorio» y director de Servicios de la consultora tecnológica Quint.

    La manera de evitarlo: no permitir que la IA tome decisiones, sino que proponga opciones y conocer cómo las ha seleccionado, «pero que la decisión final dependa siempre de un ser humano».

    Pedro Meseguer incidió en la importancia de incluir valores éticos en el desarrollo de esta tecnología para evitar que tenga sesgos entre razas o sexos, y se mostró convencido de que cambiará el comportamiento de los humanos, como lo han cambiado antes otras tecnologías -como el coche o el teléfono-, y de que la posibilidad de fallo va a estar siempre presente porque, al igual que los humanos, «la IA no es infalible».

    ¿QUIERES SABER MAS?

    El chatbot con inteligencia artificial de OpenAI, ChatGPT, ahora puede «ver, oír y hablar»

    OpenAI, la empresa creadora del chatbot con inteligencia artificial (IA) generativa ChatGPT, anunció este lunes una nueva versión de su popular herramienta que es capaz de "ver, oír y hablar" en voz alta con los usuarios.

    Spotify usará inteligencia artificial para doblar pódcast al español

    La plataforma musical sueca Spotify anunció este lunes que empezará a poner a prueba un programa que usa inteligencia artificial para traducir pódcast del inglés a otros idiomas, entre ellos el español, todos con la voz original.

    La APP Wonderwall lanzará un servicio para enviar mensajes al grupo ATEEZ

    La plataforma de derechos de propiedad intelectual (PI) de artistas, Wonderwall, lanzará, el próximo mes, el servicio "fromm ATEEZ", para enviar mensajes a los miembros del grupo masculino de K-pop ATEEZ, dijo, este martes, la compañía.

    Banco de imágenes Getty junto a Nvidia lanzan inteligencia artificial que genera imágenes

    El banco de imágenes Getty anunció este lunes que se une con la tecnológica Nvidia para lanzar "Generative AI by Getty Images", una herramienta que permite a los usuarios mediante un texto crear imágenes e ilustraciones utilizando la biblioteca de fotografías de Getty.

    Un revolucionario uso de la IA permitirá establecer si existe vida extraterrestre

    Un revolucionario test que utiliza la ayuda de la inteligencia artificial (IA) para analizar muestras del suelo permitirá establecer con un 90 % de exactitud la existencia presente o pasada de vida en Marte y otros planetas, según reveló este lunes un grupo de científicos.