Firman primer acuerdo internacional que hará a la IA segura por diseño. Las naciones más poderosas del mundo nucleadas en el G7 firmaron el primer código de conducta para limitar las acciones de las empresas desarrolladoras de inteligencia artificial (IA).
Según la nota reseñada por IProfesional, el objetivo es restringir las prácticas de desinformación que la inteligencia artificial podría ocasionar. Así como también la vulneración de derechos fundamentales como la privacidad y la intimidad.
Está claro que los gobiernos deben regular cuanto antes el uso de la inteligencia artificial. Esto para impulsar sus beneficios y frenar los grandes riesgos que podría enfrentar su gente por su uso en actividades poco éticas.
Privacidad amenazada
Cada vez más personas y empresas están expuestas a perder la privacidad de sus datos; recibir ataques de manipulación digital y reducir sus condiciones laborales; entre otros inconvenientes, por un uso incorrecto de la tecnología.
Por ejemplo, en Argentina se han encendido las alarmas ante la utilización de técnicas como «deep fake». Esta usa la IA para imitar en forma digital la voz de los candidatos, en la creación de campañas de desprestigio en los recientes procesos electorales. Un problema que se une al uso generalizado e ilegal de bases de datos de ciudadanos para manipular su opinión; con noticias falsas y contenidos malintencionados.
Tampoco las empresas son ajenas a los retos que plantea esta tecnología. Una vez calibrada por completo con la infraestructura de una organización, la IA permite contar con una protección sólida contra ciberataques e impulsar sus ventas rápidamente.
Punto de quiebre por la inteligencia artificial
Sin embargo, para llegar a ese punto, la plataforma debe acceder a millones de datos de los usuarios, especialmente durante su entrenamiento; lo que puede resultar invasivo.
Una encuesta global elaborada por Zoho, señala que 81% de los trabajadores tiene preocupaciones de la forma como estas tecnologías exponen sus datos privados; al tiempo que 49% expresa su miedo por la gestión de sus datos y su privacidad. Eso sí, 84% cree que la IA será aceptada y utilizada en los lugares de trabajo durante el próximo año.
Y es que la inteligencia artificial evoluciona a un ritmo tan rápido que es imposible que los gobiernos y reguladores, lo sigan. Según el informe Perspectivas de directores de Riesgos Empresariales, 43% de los encuestados considera necesario frenar el desarrollo de la IA. Mientras las regulaciones se ponen al día, y el 90% considera que las regulaciones deben acelerarse.
Si quieres leer la nota completa, ingresa a Iprofesional.
Firman primer acuerdo internacional que hará a la IA segura por diseño
Foto: Cortesía
Fuente: IProfesional