Las principales empresas de tecnología, como OpenAI, Google y Meta, han firmado un acuerdo para garantizar un desarrollo responsable de la inteligencia artificial (IA). El pacto, denominado «Llamado a la acción para la IA segura», establece un marco para que las empresas evalúen los riesgos potenciales de la IA, definan los riesgos inaceptables y creen protocolos para evitarlos.
Este pacto, que se basa en un consenso alcanzado en la primera cumbre sobre IA celebrada en Bletchley Park (Reino Unido) el año pasado, busca establecer un marco común para la evaluación de riesgos, la definición de límites éticos y la creación de protocolos para evitar potenciales consecuencias negativas de la IA.
El primer ministro británico, Rishi Sunak, ha destacado la importancia de este acuerdo, afirmando que «garantiza que las principales empresas de IA del mundo ofrecerán transparencia y rendirán cuentas sobre sus planes para desarrollar una IA que sea segura».
El objetivo principal de este acuerdo es asegurar que la inteligencia artificial se desarrolle y utilice de manera responsable, evitando posibles consecuencias negativas para la sociedad. Las empresas firmantes se comprometen a trabajar juntas para:
- Identificar y evaluar los riesgos potenciales de la IA. Esto incluye riesgos como el sesgo algorítmico, la discriminación y la pérdida de control sobre los sistemas de IA.
- Definir los riesgos inaceptables de la IA. Estos son riesgos que las empresas firmantes se comprometen a evitar a toda costa.
- Desarrollar protocolos para evitar los riesgos inaceptables de la IA. Estos protocolos pueden incluir medidas como la revisión humana de los sistemas de inteligencia artificial, el desarrollo de sistemas de IA transparentes y responsables, y la inversión en investigación para mitigar los riesgos que este tipo de avance tecnológico puede producir.
El «Llamado a la acción para la IA segura» es un paso importante para garantizar que la IA se desarrolle y utilice de manera responsable. Las empresas firmantes se encuentran entre las más importantes del mundo en el ámbito de la inteligencia artificial y su compromiso con este acuerdo es un signo positivo de que la industria está tomando en serio los riesgos potenciales que esto puede provocar.
Ampliando el compromiso: definición del umbral de riesgo inaceptable y nuevas adhesiones al pacto
Es importante destacar que este acuerdo es solo un primer paso. Se necesitará más trabajo para garantizar que la inteligencia artificial se desarrolle y utilice de manera responsable. Sin embargo, el «Llamado a la acción para la IA segura» es un paso positivo en la dirección correcta.
El establecimiento del umbral de riesgo inaceptable será definido con mayor claridad durante la próxima cumbre sobre IA que tendrá lugar en Francia en 2025. A las empresas fundadoras del pacto se han sumado otros gigantes del sector como Microsoft, Amazon, IBM, Meta (matriz de Instagram), la francesa Mistral AI y la china Zhipu. Esta amplia adhesión al compromiso por parte de actores clave de la industria tecnológica remarca la importancia que se le está dando al desarrollo responsable de esta importante tecnología y la búsqueda de soluciones conjuntas para enfrentar sus potenciales riesgos.