Mas

    La desinformación generada por ChatGPT podría ser más convincente que la humana

    l chatbot ChatGPT-3 y otras herramientas de inteligencia artificial generativa pueden informar y desinformar a los usuarios de redes sociales con más eficacia que los humanos, según un estudio que publica hoy Science Advances.

    Un equipo encabezado por la Universidad de Zúrich usó la versión ChatGPT-3 para un estudio con 679 participantes, el cual reveló que estos tuvieron más problemas para distinguir entre los tuis hechos por humanos y los generados por el chatbot.

    Además, también tuvieron problemas para identificar qué mensajes generados por la inteligencia artificial eran precisos y cuáles inexactos.

    Desde su lanzamiento en noviembre de 2022, el uso generalizado de ChatGPT ha suscitado preocupación pública por la posible propagación de desinformación en línea, especialmente en las plataformas de redes sociales, recuerdan los autores.

    Dado que este tipo de herramientas son relativamente nuevas en la esfera pública, el equipo decidió profundizar sobre diversos aspectos de su uso.

    Para el estudio reclutaron a 697 personas de habla inglesa de Estados Unidos, el Reino Unido, Canadá, Australia e Irlanda, principalmente entre 26 y 76 años.

    El cometido era evaluar los tuits generados, tanto por humanos como GPT-3, que contenían información precisa e inexacta sobre temas como vacunas y autismo, tecnología 5G, covid-19, cambio climático y evolución, que están sujetos con frecuencia a conceptos erróneos del público.

    Para cada tema, los investigadores reunieron mensajes de Twitter hechos por humanos e instruyeron al modelo GPT-3 para generar otros, los cuales tenían en unos casos información correcta y en otros inexacta.

    Los participantes en el estudio tenían que juzgar si los mensajes eran verdaderos o falsos y si fueron creados por un humano o GPT-3.

    Los resultados, según resume la publicación, indicaron que las personas pudieron identificar con mayor frecuencia la desinformación generada por humanos y la precisión de los tuits veraces generados por GPT-3.

    Sin embargo, también era más probable que consideraran que la desinformación generada por GPT-3 era precisa.

    «Nuestros hallazgos plantean cuestiones importantes sobre los posibles usos y abusos de GPT-3 y otros generadores de texto de IA avanzados y las implicaciones para la difusión de información en la era digital», concluyen los autores.

    ¿QUIERES SABER MAS?

    El Supremo de Estados Unidos decidirá si los estados pueden regular lo que publican las redes sociales

    El Tribunal Supremo de Estados Unidos decidirá si los estados del país pueden regular los contenidos que publican las redes sociales en sus territorios, al haber aceptado este viernes estudiar si las leyes aprobadas en Texas y Florida con este fin son constitucionales.

    Truecaller presenta una nueva identidad de marca y funciones de IA para la prevención del fraude

    El logotipo actualizado de Truecaller significa un enfoque renovado y fuerte en la privacidad del consumidor y una mayor seguridad en las comunicaciones.

    La nueva IA de Meta usará la cara de diversos famosos, pero no sus personalidades o vidas

    El director ejecutivo de Meta anunció que "pronto" los usuarios de sus aplicaciones Messenger, Instagram y WhatsApp podrán tener conversaciones con chatbots que usan la cara y las expresiones físicas de diversas personalidades.

    El chatbot con inteligencia artificial de OpenAI, ChatGPT, ahora puede «ver, oír y hablar»

    OpenAI, la empresa creadora del chatbot con inteligencia artificial (IA) generativa ChatGPT, anunció este lunes una nueva versión de su popular herramienta que es capaz de "ver, oír y hablar" en voz alta con los usuarios.

    Spotify usará inteligencia artificial para doblar pódcast al español

    La plataforma musical sueca Spotify anunció este lunes que empezará a poner a prueba un programa que usa inteligencia artificial para traducir pódcast del inglés a otros idiomas, entre ellos el español, todos con la voz original.