paint-brush
Estados Unidos lidera los esfuerzos globales en materia de gobernanza y confianza de la IA y presenta un código de conducta internacionalpor@whitehouse
735 lecturas
735 lecturas

Estados Unidos lidera los esfuerzos globales en materia de gobernanza y confianza de la IA y presenta un código de conducta internacional

por The White House4m2024/05/14
Read on Terminal Reader

Demasiado Largo; Para Leer

Estados Unidos lidera los esfuerzos internacionales en materia de gobernanza de la IA, estableciendo marcos como el Código Internacional de Conducta y la Declaración de Bletchley para garantizar un desarrollo seguro y transparente de la IA. Con asociaciones e iniciativas, EE. UU. impulsa el uso responsable de la IA y promueve estándares globales para tecnologías de IA confiables.
featured image - Estados Unidos lidera los esfuerzos globales en materia de gobernanza y confianza de la IA y presenta un código de conducta internacional
The White House HackerNoon profile picture

Puede saltar a cualquier parte de la Estrategia internacional de política digital y ciberespacio de los Estados Unidos aquí . Esta parte es 19 de 38.

Línea de esfuerzo 2: Promover entendimientos comunes sobre confianza, estándares interoperables y valores compartidos y principios de gobernanza para tecnologías críticas y emergentes

Uno de los desafíos más apremiantes para la solidaridad digital es el desarrollo de enfoques comunes para gobernar tecnologías críticas y emergentes como la IA. La velocidad de la innovación, la escala de la competencia y lo que está en juego para nuestros valores, seguridad y prosperidad exigen una acción concertada. Con las tecnologías de IA, no podremos darnos el lujo de perder tiempo ni de perseguir intereses estrechos que a menudo han ralentizado nuestra capacidad de desarrollar principios compartidos y enfoques regulatorios interoperables en otras partes de la economía digital.


Dar forma a valores compartidos y principios de gobernanza sobre el desarrollo, despliegue y uso de la IA es cada vez más central para la diplomacia digital estadounidense. Estados Unidos está involucrando a aliados, socios, el sector privado, la sociedad civil, la comunidad técnica y otras partes interesadas en discusiones en el G7, la Asociación Global sobre Inteligencia Artificial, el Consejo de Europa, la OCDE, la ONU, la UNESCO y otros foros para gestionar los riesgos de la IA y garantizar que sus beneficios se distribuyan ampliamente. Además, necesitaremos trabajar juntos para invertir en la investigación científica y la infraestructura necesaria para medir, evaluar y verificar sistemas avanzados de tecnología de IA.


En julio de 2023, el presidente Biden anunció compromisos voluntarios de siete empresas líderes en inteligencia artificial para promover el desarrollo seguro y transparente de la tecnología de inteligencia artificial. Ocho empresas más (incluida una empresa con sede en el extranjero) firmaron los compromisos en septiembre. Estados Unidos internacionalizó y amplió los compromisos voluntarios a través del proceso de IA del G7 en Hiroshima liderado por Japón para abordar la IA generativa, y los líderes publicaron un Código de conducta internacional para organizaciones que desarrollan sistemas avanzados de IA en octubre de 2023. Seguimos trabajando para ampliar la aceptación de el Código de Conducta por parte de más países y empresas además de los países miembros del G7.


Estados Unidos se unió a otros veintisiete países en la Cumbre de Seguridad de la IA del Reino Unido y firmó la Declaración de Bletchley, que fomenta la transparencia y la responsabilidad de los actores que desarrollan tecnología de IA de vanguardia. Estados Unidos y el Reino Unido también firmaron un memorando de entendimiento entre sus respectivos Institutos de Seguridad de la IA para promover la ciencia de medir, evaluar y abordar los riesgos de la IA como un primer paso hacia un consenso global sobre los fundamentos científicos de la seguridad de la IA. Estos esfuerzos describen un papel para los gobiernos nacionales, promueven la cooperación internacional y fomentan la innovación al proporcionar pautas técnicamente rigurosas para introducir tecnología de IA segura y confiable. Al mismo tiempo, USAID y varios otros donantes internacionales de desarrollo se asociaron para promover el desarrollo de IA seguro y confiable en países de ingresos bajos y medianos de África y otras partes del mundo.


Principios de Hiroshima para la IA generativa


En octubre de 2023, el presidente Biden emitió una Orden Ejecutiva sobre el desarrollo y uso seguro y confiable de la inteligencia artificial. Esta Orden establece un proceso para desarrollar nuevos estándares para la seguridad de la IA y busca proteger la privacidad de los ciudadanos, promover la innovación y la competencia y promover la equidad y los derechos humanos. La Orden encargó al Departamento de Estado fortalecer el liderazgo de Estados Unidos en el extranjero en cuestiones de inteligencia artificial. El Departamento de Estado y USAID, en colaboración con el Departamento de Comercio, están liderando un esfuerzo para establecer un manual de IA en el desarrollo global para aprovechar los beneficios de la IA y gestionar sus riesgos. En relación con esto, el Departamento de Estado planea liderar un grupo de trabajo interinstitucional sobre detección, autenticación y etiquetado de contenido sintético, cuyo objetivo es facilitar el intercambio de información y movilizar compromisos globales tanto para etiquetar contenido auténtico producido por el gobierno como para detectar contenido sintético. Además, en colaboración con el Departamento de Seguridad Nacional (DHS), el Departamento de Estado está involucrando a socios internacionales para ayudar a prevenir, responder y recuperarse de posibles interrupciones en la infraestructura crítica resultantes de la incorporación de IA en sistemas de infraestructura crítica o el uso malicioso. de la IA contra esos sistemas. El Departamento de Estado y USAID también están trabajando con socios interinstitucionales, incluido el Instituto Nacional de Estándares y Tecnología (NIST), la Fundación Nacional de Ciencias (NSF) y el Departamento de Energía, para desarrollar un marco de gestión de riesgos de derechos humanos para la IA y una solución global. Agenda de investigación de IA.


El Departamento de Estado también está generando un amplio apoyo para la Declaración Política sobre el Uso Militar Responsable de la IA y la Autonomía. Si bien hay importantes debates en curso en Ginebra en el marco de la Convención sobre Ciertas Armas Convencionales (CAC) –que Estados Unidos seguirá apoyando–, el alcance de esos debates sólo cubre un posible uso militar de la IA, a saber, los sistemas de armas autónomos. La Declaración Política es el primer esfuerzo para articular principios y mejores prácticas que cubran todas las aplicaciones militares de las tecnologías de IA.



Continuar leyendo aquí .


Esta publicación fue publicada originalmente el 6 de mayo de 2024por el Departamento de Estado de EE. UU.