Mas

    [the_ad id="2003"]

    Apple presenta Apple Intelligence en WWDC 2024

    El pasado 10 de junio, durante la WWDC 2024, Apple reveló su ambiciosa apuesta por la inteligencia artificial con el lanzamiento de Apple Intelligence, un sistema innovador que integrará iOS 18, iPadOS 18 y macOS 15 Sequoia.

    Este sistema permitirá a los usuarios realizar diversas tareas, desde reescribir textos hasta generar imágenes de diferentes estilos, excluyendo el fotorrealismo por razones de seguridad.

    El anuncio no pasó desapercibido, generando expectativas y opiniones encontradas tanto entre los usuarios como en la industria tecnológica. Según informa Engadget, algunos usuarios creativos de Apple han expresado su molestia por lo que perciben como una «falta de transparencia» en el funcionamiento de Apple Intelligence. La preocupación principal gira en torno a la escasa información proporcionada por Apple sobre los datos utilizados para entrenar sus modelos de inteligencia artificial.

    En términos generales, los modelos de IA requieren grandes volúmenes de datos para funcionar eficazmente. Apple ha indicado que sus modelos de IA han sido entrenados utilizando AppleBot, un sistema de web scraping diseñado para extraer información de la «web abierta». Sin embargo, la compañía no ha detallado específicamente qué tipo de datos se incluyen en este proceso ni cómo se gestionan aspectos como los derechos de autor o la privacidad de los usuarios cuyos contenidos podrían estar siendo utilizados.

    La preocupación se extiende a la comunidad creativa, incluyendo fotógrafos, diseñadores y escritores, quienes temen que sus trabajos puedan haber sido incorporados en el entrenamiento de Apple Intelligence sin su consentimiento explícito. Aunque Apple asegura que respeta las directrices de los archivos robots.txt para evitar la inclusión de ciertas páginas en su actividad de web scraping, persisten dudas sobre la transparencia y las prácticas éticas en la recopilación y uso de datos para la IA.

    Este debate no es exclusivo de Apple, ya que otras empresas en la industria de la IA también enfrentan críticas similares respecto a la opacidad en el entrenamiento de sus modelos. Ejemplos como OpenAI, que desarrolla GPT-4 y Sora, y Stable Diffusion, que utiliza datos de LAION, también han suscitado interrogantes sobre la procedencia y manejo de los datos utilizados.

    [the_ad id="1999"]

    ¿QUIERES SABER MAS?