El autor Tom Kemp cree que una vez que un genio tecnológico sale de la botella, no se puede volver a colocar. Así, señaló que es más inteligente establecer reglas para gestionar tecnologías emergentes como la inteligencia artificial (IA).
En su nuevo libro «Contener a las grandes tecnologías: cómo proteger nuestros derechos civiles, economía y democracia», Kemp habló sobre cómo podrían verse estas regulaciones y qué significan para las personas.
El autor, empresario, inversionista y asesor político radicado en Silicon Valley afirmó que una vez que se ha dejado suelto al genio de la tecnología, no hay forma de revertir ese rumbo. Por lo tanto, señaló que el enfoque prudente es centrarse en establecer marcos regulatorios, informó Engadget .
En su trabajo recientemente publicado, Kemp profundizó en la forma potencial de estas regulaciones y sus implicaciones para el público en general. También reveló las ideas de Kemp sobre la posible naturaleza de estas regulaciones y su importancia en términos de protección del consumidor.
Aparición de la IA
El sector de la IA en rápido crecimiento ha superado rápidamente la fase inicial de «avanzar rápido» de su evolución y se ha sumergido de cabeza en el ámbito de causar perturbaciones, incluso dentro de la propia sociedad.
Desde la introducción de ChatGPT en noviembre pasado, las tecnologías de IA generativa han ganado popularidad en todo el panorama digital.
Sus aplicaciones abarcan un amplio espectro, incluidas tareas como programación automatizada, utilización industrial, desarrollo de juegos y experiencias virtuales inmersivas.
Desafortunadamente, esta tecnología también ha sido adoptada rápidamente con intenciones maliciosas, como facilitar extensas campañas de correo electrónico no deseado y fabricar contenido deepfake convincente.
Regulando la IA
Engadget informó que las personas deben aprovechar las ventajas de la IA y al mismo tiempo limitar el daño potencial que podría causarles dentro de una figurativa caja de Pandora.
La Dra. Timnit Gebru, quien estableció el Instituto de Investigación de Inteligencia Artificial Distribuida (DAIR), compartió sus ideas sobre cómo abordar el sesgo de la IA con el New York Times .
Sugirió que abordar esta cuestión requiere un enfoque integral: establecer principios, estándares y organismos reguladores e involucrar a las personas en la toma de decisiones, similar al papel de la Administración de Alimentos y Medicamentos (FDA).
En su opinión, resolver el problema es más complejo que simplemente diversificar conjuntos de datos, ya que exige medidas sistémicas más amplias. Esta tecnología podría utilizarse en el ámbito político para atribuir erróneamente declaraciones o acciones a un rival, lo que llevaría al engaño de los votantes.
La Comisión Federal Electoral se centra actualmente en el posible control de los anuncios políticos que utilizan la IA para alterar la apariencia de los candidatos rivales. Esta cuestión ha cobrado importancia a la luz de las próximas elecciones presidenciales estadounidenses de 2024.
La mayor utilización de la IA generativa ha contribuido a un aumento en la producción de imágenes falsas muy realistas. En consecuencia, ha habido un aumento en los deepfakes y el contenido manipulado que se parece sorprendentemente a individuos reales.