Empresas como OpenAI, TikTok y Adobe han firmado un nuevo conjunto de directrices diseñadas para que la IA generativa sea más transparente.
Un grupo de diez empresas, entre las que se encuentran OpenAI, TikTok, Adobe, la BBC y la aplicación de citas Bumble, han firmado un nuevo conjunto de directrices sobre cómo construir, crear y compartir contenidos generados por IA de forma responsable.
Las recomendaciones piden tanto a los creadores de la tecnología (por ejemplo, OpenAI) como a los creadores y distribuidores de medios sintéticos creados digitalmente (BBC y TikTok), que sean más transparentes sobre qué puede o no hacer la tecnología, y que revelen cuándo un usuario puede estar interactuando con este tipo de contenidos.
Estas recomendaciones voluntarias fueron elaboradas por Partnership on AI (PAI, por sus siglas en inglés), una organización sin ánimo de lucro dedicada a la investigación de la IA que consultó a más de 50 organizaciones. Entre los socios de PAI figuran grandes empresas tecnológicas y organizaciones académicas, sociales y de los medios de comunicación. Las diez primeras empresas que se han comprometido a seguir las recomendaciones son: Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, Witness y las empresas de medios sintéticos Synthesia, D-ID y Respeecher.
«Queremos asegurarnos de que los medios sintéticos no se utilicen para perjudicar, restar poder o privar de derechos, sino para apoyar la creatividad, el intercambio de conocimientos y los comentarios», afirma Claire Leibowicz, responsable de IA e integridad de los medios de PAI.
Uno de los aspectos más importantes de estas directrices es un pacto entre las empresas para incluir e investigar formas de indicar a los usuarios que están interactuando con contenido generado por IA. Esto podría incluir marcas de agua o descargos de responsabilidad, así como elementos rastreables en los datos de entrenamiento o metadatos de un modelo de IA.
La normativa que intenta frenar los daños potenciales relacionados con la IA generativa aún tardará. La Unión Europea, por ejemplo, está intentando incluir la IA generativa en su próxima ley sobre inteligencia artificial. La normativa podría incluir aspectos como la obligación de informar a los usuarios cuando interactúen con deepfakes y de que las empresas cumplan ciertos requisitos de transparencia.
Henry Ajder, experto en IA generativa que ha colaborado en la elaboración de las directrices, afirma que, aunque la IA generativa es un salvaje Oeste en estos momentos, también espera que ofrezca a las empresas aspectos clave a tener en cuenta para incorporar esta tecnología a sus negocios. Para Hany Farid, profesor de la Universidad de California en Berkeley e investigador de los medios sintéticos y los deepfakes, es importante concienciar e iniciar un debate sobre formas responsables de pensar en los medios sintéticos. Sin embargo, «las directrices y principios voluntarios rara vez funcionan», añade Farid.
Mientras empresas como OpenAI intentan acotar las tecnologías que crean, como ChatGPT y DALL-E, otros actores que no forman parte del pacto, como Stability.AI, pueden permitir que los usuarios generen imágenes inapropiadas y deepfakes. Stability.AI es la startup que creó el modelo Stable Diffusion, una IA de código abierto que genera imágenes.
«Si queremos abordar estos problemas, tenemos que ponernos serios», afirma Farid. Por ejemplo, sugiere que los proveedores de servicios en la nube y las tiendas de aplicaciones como Amazon, Microsoft, Google y Apple, que forman parte de la PAI, prohíban los servicios que permiten utilizar la tecnología deepfake con intención de crear imágenes sexuales no consentidas. Las marcas de agua en todos los contenidos generados por IA también deberían ser obligatorias en lugar de voluntarias, asegura Farid.
Ilke Demir, investigadora científica sénior de Intel, dirige el trabajo de la empresa sobre el desarrollo responsable de la IA generativa y afirma que otro aspecto importante que echa en falta es cómo hacer que los propios sistemas de IA sean más responsables. Esto podría incluir más detalles sobre cómo se entrenó el modelo de IA, qué datos se introdujeron en él y si los modelos de IA generativa tienen algún sesgo.
Las directrices no mencionan la garantía de que no haya contenido tóxico en el conjunto de datos de los modelos generativos de IA. «Es una de las formas más significativas de provocar daño que tienen estos sistemas «, afirma Daniel Leufer, analista político del grupo de derechos digitales Access Now.
Las directrices incluyen una lista de perjuicios que estas empresas quieren evitar, como el fraude, el acoso y la desinformación. Pero un modelo de IA generativa que siempre crea personas blancas también provoca daños, aunque ese perjuicio no figura en la lista, añade Demir. Por su parte, Farid plantea una cuestión más fundamental. Dado que las empresas reconocen que la tecnología podría acarrear algunos daños graves y ofrece formas para mitigarlos, «¿por qué no se plantean la pregunta: «¿deberíamos siquiera hacer esto en primer lugar?»».
Fuente: MIT Technology Review