161c39d8-6ce5-4cc4-9d08-94ee23c3123f Manifiesto IA

La inteligencia artificial plantea riesgos sociales y ambientales, pero no es viable boicotearla completamente. Basándonos en las pautas que ha elaborado Wholegrain para el uso responsable de la IA, centradas en 7 principios simples, en Blogpocket nos comprometemos a cumplir con dichos principios. Necesitamos encontrar una manera de aprovechar los beneficios y minimizar los riesgos de la IA, una tecnología a la que no es realista darle la espalda.

7 principios para el uso responsable de la IA

Pautas para minimizar los impactos negativos sociales y ambientales al utilizar herramientas de IA y para ayudar a nuestros seguidores en su propio uso de la IA, resaltando consideraciones importantes. Nos comprometemos a aplicar estas pautas al utilizar herramientas de IA directamente o integradas en otra herramienta.

Principio 1: Atención plena

A pesar de los riesgos sociales y ambientales que conllevan las herramientas de IA, se pueden utilizar con atención y considerar si su uso previsto es necesario y si los beneficios superan los riesgos. Antes de aplicar la tecnología de IA a una situación particular, es importante pensar en las consecuencias no deseadas y las opciones alternativas.

Principio 2: Supervisión humana

El Principio 2 destaca la importancia de la supervisión humana en el uso de herramientas de inteligencia artificial para evitar la propagación de información falsa. Toda información generada por herramientas de IA debe ser verificada por un experto en la materia antes de ser utilizada públicamente. Esto plantea un desafío para las herramientas de búsqueda y chatbots, que deben ser considerados con cuidado ya que no están supervisados automáticamente.

Principio 3: Detección de sesgos

Debido a la forma en que se entrenan, los modelos de IA pueden tener prejuicios que es importante minimizar. Se pueden ejecutar pruebas para detectar signos de sesgo antes de utilizar cualquier herramienta de IA. Es recomendable trabajar con una amplia gama de mentes para identificar sesgos desde diferentes perspectivas. Los esfuerzos para minimizar el sesgo serán imperfectos pero ayudarán a disminuir cualquier impacto negativo.

Principio 4: Privacidad

No se deben ingresar datos personales en herramientas de IA sin evidencia documentada de que cumple con el RGPD y utiliza los datos de manera responsable, excepto cuando los datos son de dominio público, como referencias a figuras públicas o acontecimientos históricos.

Principio 5: Transparencia de autoría

En un mundo donde es difícil distinguir si el contenido es generado por humanos o no, se debe asegurar que todo el contenido entregado sea escrito principalmente por un humano y siempre haya alguien que asuma la responsabilidad. Si se publica contenido generado por IA, debe destacarse claramente para lograr transparencia.

Principio 6: Propiedad Intelectual

La IA puede copiar trabajos y crear derivados, lo que preocupa a muchas personas. Para minimizar el riesgo, es importante no utilizar el trabajo de personas vivas sin su permiso y proporcionar nuestra propia dirección creativa para dar forma al resultado.

Principio 7: Evitar medios falsos

Se debe evitar la creación de medios falsos que puedan generar información errónea al utilizar la imagen de una persona para crear imágenes artificiales como fotografías, audio o video. Aunque se tenga un uso legítimo para generar este contenido, existe el riesgo de que se difunda de forma engañosa. Para minimizar estos riesgos, es importante evitar generar medios realistas basados en la imagen de personas reales, presentes o históricas.

La imagen de este post fue generada en Bing con el prompt: «Una imagen realista que represente los principios para el uso responsable de la IA».

Ir al contenido