El 26 de julio de 2024, el gobierno de Estados Unidos anunció los resultados de la Orden Ejecutiva realizada 9 meses antes sobre la gestión de la inteligencia artificial en el país. La Orden se basó en los compromisos voluntarios que el gobierno recibió de 15 importantes empresas de IA de Estados Unidos el año pasado, a los cuales recientemente se sumó Apple.
A partir de la Orden emitida que estipulaba 270 días de ejecución, las agencias federales del gobierno tomaron medidas para mitigar los riesgos de seguridad y protección de la IA, proteger la privacidad de los estadounidenses, promover la equidad y los derechos civiles, defender a los consumidores y a los trabajadores, promover la innovación y la competencia, impulsar el liderazgo estadounidense en todo el mundo, entre otros.
Entre las medidas realizadas se encuentran la publicación de pautas de seguridad sobre IA y la creación de capacidad para probar y evaluar la IA, el lanzamiento de un programa de aumento de talentos en IA en todo el gobierno para trabajar en políticas relacionadas con la temática y el anuncio de inversiones de millones de dólares en la promoción del desarrollo y uso responsable de IA en la sociedad.
Seguir leyendo contenido relacionado con esta política
Departamento de Estados (EE.UU.)
"The United States is working with allies and partners to move quickly to address the ways in which artificial intelligence can potentially destabilize societies while preserving its benefits—and, crucially, staying true to democratic values and protecting human rights. A critical part of this work is not only safeguarding an open and independent research environment but also partnering with emerging economies in the development and deployment of AI technologies."
Brookings
"In July 2023, the White House secured voluntary commitments from seven leading U.S. AI companies–Amazon, Anthropic, Google, Inflection, Meta, Microsoft, and OpenAI–to ensure safety, security, and trust with advanced AI systems. These include agreements about internal and external security testing on crucial risks such as bio- and cybersecurity as well as broader societal effects, the protection of unreleased model weights, and public reporting of system capabilities, limitations, and guidelines for responsible use. In September 2023, eight additional companies–including IBM, Nvidia, and Palantir–were convened at the White House to agree to these same terms."
Time
"Carl Szabo, vice president of industry group NetChoice, which counts Google, Meta, and Amazon among its members, welcomes the possibility of the executive order’s repeal, saying, “It would be good for Americans and innovators.” “Rather than enforcing existing rules that can be applied to AI tech, Biden’s Executive Order merely forces bureaucrats to create new, complex burdens on small businesses and innovators trying to enter the marketplace. Over-regulating like this risks derailing AI’s incredible potential for progress and ceding America’s technological edge to competitors like China."
Start writing here...