5 desafíos de la inteligencia artificial generativa

Se espera que la Inteligencia Artificial Generativa aumente su impacto y genere cambios y mejoras en diversas industrias.
ESET destaca que también plantea desafíos en su implementación, así como cuestiones éticas, legales y de privacidad que

requieren atención.

Santiago, 21 de febrero de 2024.- ESET, compañía líder en detección proactiva de amenazas, advierte que si
bien el futuro es prometedor para cada uno de los campos dónde puede ser aplicada la inteligencia artificial
generativa, y con grandes expectativas, existen riesgos vinculados a la adopción de esta nueva tendencia.
Los modelos tradicionales de Inteligencia Artificial se basan en modelos estadísticos que reconocen patrones a
partir de datos existentes y son más aprovechados para contextos analíticos y predictivos. En el auge de la
inteligencia artificial, se creó una nueva categoría llamada generativa que tiene el potencial de (re)construir o
(re)producir contenido proveniente de algún texto, imagen, video, audio o código fuente, tan verosímil como
el usuario lo permita. Los modelos generativos pueden producir nuevos datos (artificiales) usando datos reales
(alimentados por el usuario) y crear información nueva; aquel horizonte que existía hasta hace un par de años
solo en los libros de ciencia ficción o las películas va acercándose cada vez más a la realidad.
La IA Generativa reside en el ciberespacio y, por consecuencia, existen riesgos asociados que pueden afectar
tanto a personas como empresas o gobiernos, ESET identifica principalmente 5:

  1. Moderación de contenidos. Algunas de las redes sociales, sitios web o aplicaciones no son legalmente
    responsables, o son muy ambiguos, en lo que refiere a los contenidos subidos por sus usuarios, como ideas o
    publicaciones hechas por terceros o subyacentes, ni el contenido generado por IA: aun cuando cuentan con
    términos de uso, normas de comunidad y políticas de privacidad que protejan los derechos de autor, hay un
    vacío legal que sirve de blindaje para los proveedores ante una violación de derechos de autor.
     

Política de Propiedad Intelectual en TikTok

El usuario cuenta con un fácil acceso y una enorme disponibilidad de herramientas de IA Generativa que son
poco claras, incluso contradictorias, en sus políticas de uso e implementación.

ESET -Nota de Prensa

Sitio web que se encarga de clonar la voz: Sin restricciones de usar la voz de cualquier celebridad

  1. Infracción de los derechos de autor e imagen. En los Estados Unidos, en mayo 2023, una Huelga del Sindicato
    de Guionistas, comenzó una serie de conflictos al que se le unieron en julio del mismo año el Sindicato de
    Actores en Hollywood. Las principales causas de este movimiento se debieron a la petición de un aumento
    salarial derivado del auge de las plataformas digitales, ya que hubo un incremento en la demanda/creación del
    contenido y buscaban que las ganancias fueran repartidas proporcionalmente entre guionistas/actores y las
    grandes compañías.
    Otro motivo fue el abuso de la IA Generativa por parte de estas compañías para producir contenido sin el
    consentimiento del actor o actriz de usar su rostro y voz para fines comerciales, por lo que solicitaron un nuevo
    contrato que los protegiera de la explotación de su identidad y talento sin su consentimiento ni remuneración
    para esta tecnología. La originalidad de algún contenido independientemente de la fuente, con la llegada de la
    IA Generativa cada vez parece ser más difusa. En este caso, muchos derechos de autor y permisos de imagen
    fueron ignorados por grandes compañías, generando una enorme molestia y como consecuencia de esto
    Estados Unidos optó por implementar recursos legales que protegieran a ambas partes.
  2. Privacidad. Para que los modelos de IA Generativa puedan funcionar correctamente necesitan de grandes
    volúmenes de datos para ser entrenados, pero ¿qué sucede cuando este volumen puede obtenerse de cualquier
    fuente pública como videos, audios, imágenes, textos o códigos fuente sin el consentimiento del titular? Es aquí
    donde, según ESET, las plataformas, aplicaciones y redes sociales debieran apegarse al marco normativo sobre la
    privacidad de datos de cada país en caso de existir, de lo contrario apoyarse Reglamento General de Protección
    de Datos (GDPR) del Parlamento Europeo que ya incluye una sección para la IA.
  3. Cuestiones éticas. Aquellos países donde las regulaciones en materia de IA son escasas o nulas, son
    aprovechadas por algunos usuarios para fines nada éticos como la suplantación de identidad (voz, imagen o
    video) crear perfiles falsos que usan para cometer fraude/extorsión a través de alguna plataforma, aplicación o
    red social, o también lanzar campañas de phishing sofisticadas o estafas del tipo catfishing.
  4. Desinformación: Aprovechando este tipo de IA las prácticas de difusión de noticias falsas en plataformas y
    redes sociales se ven mejoradas. La viralización de estos contenidos engañosos generados llega a perjudicar la
    imagen de alguna persona, comunidad, país, gobierno o empresa.
    “La IA Generativa presenta riesgos particulares que deben abordarse de manera cuidadosa para garantizar su
    uso ético y seguro. Estos riesgos incluyen desde la moderación del contenido que suben los usuarios, hasta aquel

ESET -Nota de Prensa
engañoso, sesgado o perjudicial para evitar la manipulación de información”, menciona David González Cuautle,
Investigador de Seguridad Informática de ESET Latinoamérica.
Al considerar estos riesgos, desde ESET señalan que es esencial implementar estrategias preventivas y
correctivas, tales como:
 Filtrado y moderación efectiva. Desarrollar sistemas de filtrado y moderación robustos que puedan
identificar y eliminar contenido inapropiado, engañoso o sesgado generado por modelos de IA Generativa.
Esto ayudará a mantener la integridad de la información y a prevenir posibles consecuencias negativas.
 Entrenamiento con datos éticos y diversificados. Garantizar que los modelos de IA Generativa se entrenen
con conjuntos de datos éticos, imparciales y representativos. La diversificación de los datos contribuye a
reducir sesgos y a mejorar la capacidad del modelo para generar contenido más equitativo y preciso.
 Transparencia en la regulación del contenido. Establecer regulaciones que permitan a los usuarios
comprender cómo se genera el contenido, el tratamiento que reciben los datos y las implicaciones que
puede llegar a tener en caso de no cumplir.
 Evaluación continua de la ética y la calidad. Implementar mecanismos de evaluación continua para
monitorear la ética y la calidad del contenido generado. Estos mecanismos pueden incluir auditorías
regulares, pruebas de robustez y colaboración con la comunidad para identificar y abordar posibles
problemas éticos.
 Educación y conciencia pública. Promover la educación y la conciencia pública sobre los riesgos asociados
con la IA Generativa. Fomentar la comprensión de cómo funcionan estos modelos y cuáles son sus posibles
impactos permitirán al usuario participar activamente en la discusión y en la exigencia de prácticas éticas
por parte de los desarrolladores y empresas.
Para conocer más sobre seguridad informática visite el portal de noticias de ESET:
https://www.welivesecurity.com/5-principales-desafios-inteligencia-artificial-generativa/
Por otro lado, ESET invita a conocer Conexión Segura, su podcast para saber qué está ocurriendo en el mundo
de la seguridad informática. Para escucharlo ingrese a:
https://open.spotify.com/show/0Q32tisjNy7eCYwUNHphcw
Visítanos en:
@ESETLA /compay/eset-latinoamerica /esetla /ESETLA /@esetla
Acerca de ESET
Desde 1987, ESET® desarrolla soluciones de seguridad que ayudan a más de 100 millones de usuarios a disfrutar
la tecnología de forma segura. Su portfolio de soluciones ofrece a las empresas y consumidores de todo el
mundo un equilibrio perfecto entre rendimiento y protección proactiva. La empresa cuenta con una red global
de ventas que abarca 180 países y tiene oficinas en Bratislava, San Diego, Singapur, Buenos Aires, México DF y
San Pablo.
Datos de Contacto de Comunicación y Prensa
María Fernanda Hernández González mfernanda.hernandez@bmr.cl ma
Alejandro Trincado alejandro.trincado@bmr.cl  
Tahiana González tahiana.gonzalez@bmr.cl
Para más información se puede poner en contacto a través de prensa@eset-la.com o al +54 11 2150-3700.
Además, puede visitar “Somos ESET” nuestro Blog de Comunicación de ESET con las últimas novedades,
disponible en: https://www.somoseset.com/

ESET -Nota de Prensa
Copyright © 1992 – 2024. Todos los derechos reservados. ESET y NOD32 son marcas registradas de ESET. Otros
nombres y marcas son marcas registradas de sus respectivas empresas.