19.3 C
Nova Iorque

EUA lideram esforços globais em governança e confiança em IA e divulgam código de conduta internacional

Published:

Linha de Esforço 2: Promover Entendimentos Comuns de Confiança, Padrões Interoperáveis e Valores Compartilhados e Princípios de Governança para Tecnologias Críticas e Emergentes

Um dos desafios mais prementes para a solidariedade digital é o desenvolvimento de abordagens comuns para governar tecnologias críticas e emergentes, como a IA. A velocidade da inovação, a escala da concorrência e os riscos para os nossos valores, segurança e prosperidade exigem uma acção concertada. Com as tecnologias de IA, não teremos o luxo de ter tempo ou de perseguir interesses limitados que muitas vezes têm retardado a nossa capacidade de desenvolver princípios partilhados e abordagens regulamentares interoperáveis noutras partes da economia digital.

Moldar valores partilhados e princípios de governação sobre o desenvolvimento, implantação e utilização da IA é cada vez mais central para a diplomacia digital americana. Os Estados Unidos estão a envolver aliados, parceiros, o sector privado, a sociedade civil, a comunidade técnica e outras partes interessadas em discussões no G7, na Parceria Global sobre Inteligência Artificial, no Conselho da Europa, na OCDE, na ONU, na UNESCO e noutros fóruns para gerir os riscos da IA e garantir que os seus benefícios sejam amplamente distribuídos. Além disso, precisaremos de trabalhar em conjunto para investir na investigação científica e nas infraestruturas necessárias para medir, avaliar e verificar sistemas avançados de tecnologia de IA.

Em julho de 2023, o Presidente Biden anunciou compromissos voluntários de sete empresas líderes em IA para promover o desenvolvimento seguro, protegido e transparente da tecnologia de IA. Mais oito empresas (incluindo uma empresa sediada no estrangeiro) assinaram os compromissos em Setembro. Os Estados Unidos internacionalizaram e expandiram os compromissos voluntários através do processo de IA de Hiroshima do G7 liderado pelo Japão para enfrentar a IA generativa, com os líderes a lançarem um Código de Conduta Internacional para Organizações que Desenvolvem Sistemas Avançados de IA em Outubro de 2023. Continuamos a trabalhar para alargar a aceitação de o Código de Conduta por mais países e empresas além dos países membros do G7.

Os Estados Unidos juntaram-se a outros vinte e sete países na Cimeira de Segurança da IA do Reino Unido e assinaram a Declaração de Bletchley, que incentiva a transparência e a responsabilização dos intervenientes que desenvolvem tecnologia de IA de ponta. Os Estados Unidos e o Reino Unido também assinaram um memorando de entendimento entre os seus respectivos Institutos de Segurança de IA, avançando a ciência de medição, avaliação e abordagem dos riscos de IA como um primeiro passo para um consenso global sobre os fundamentos científicos da segurança de IA. Estes esforços definem um papel para os governos nacionais, promovem a cooperação internacional e incentivam a inovação, fornecendo orientações tecnicamente rigorosas para a introdução de tecnologia de IA segura e fiável. Ao mesmo tempo, a USAID e vários outros doadores internacionais para o desenvolvimento firmaram uma parceria para promover o desenvolvimento seguro, protegido e confiável da IA em países de baixa e média renda em África e em outras partes do mundo.

Princípios de Hiroshima para IA Generativa

Princípios de Hiroshima para IA Generativa

Em outubro de 2023, o Presidente Biden emitiu uma Ordem Executiva sobre o Desenvolvimento e Uso Seguro, Protegido e Confiável de Inteligência Artificial. Este despacho estabelece um processo para desenvolver novas normas para a segurança e proteção da IA e procura proteger a privacidade dos cidadãos, promover a inovação e a concorrência e promover a equidade e os direitos humanos. A Ordem encarregou o Departamento de Estado de reforçar a liderança dos EUA no estrangeiro em questões de IA. O Departamento de Estado e a USAID, em colaboração com o Departamento de Comércio, estão a liderar um esforço para estabelecer um manual de desenvolvimento da IA no desenvolvimento global para aproveitar os benefícios da IA e gerir os seus riscos. Da mesma forma, o Departamento de Estado planeia liderar um grupo de trabalho interagências para a detecção, autenticação e rotulagem de conteúdos sintéticos, que visa facilitar a partilha de informações e mobilizar compromissos globais para rotular conteúdos autênticos produzidos pelo governo e detectar conteúdos sintéticos. Além disso, trabalhando com o Departamento de Segurança Interna (DHS), o Departamento de Estado está a envolver parceiros internacionais para ajudar a prevenir, responder e recuperar de potenciais perturbações de infraestruturas críticas resultantes da incorporação de IA em sistemas de infraestruturas críticas ou da utilização maliciosa da IA contra esses sistemas. O Departamento de Estado e a USAID também estão a trabalhar com parceiros interagências, incluindo o Instituto Nacional de Padrões e Tecnologia (NIST), a Fundação Nacional de Ciência (NSF) e o Departamento de Energia, para desenvolver um quadro de gestão de riscos de direitos humanos para a IA e uma abordagem global. Agenda de pesquisa em IA.

O Departamento de Estado também está a construir um amplo apoio à Declaração Política sobre a Utilização Militar Responsável da IA e da Autonomia. Embora existam discussões importantes em curso em Genebra no âmbito da Convenção sobre Certas Armas Convencionais (CCW) – que os Estados Unidos continuarão a apoiar – o âmbito dessas discussões cobre apenas uma possível utilização militar da IA, nomeadamente sistemas de armas autónomas. A Declaração Política é o primeiro esforço para articular princípios e melhores práticas que abrangem todas as aplicações militares das tecnologias de IA.

Related articles

spot_img

Recent articles

spot_img