RTN, 16/09/2024
Por Dan Frieth
Na quinta-feira, uma reunião crucial na Casa Branca reuniu líderes de grandes corporações de tecnologia, incluindo OpenAI, Anthropic, Nvidia, Microsoft, Google e Amazon, juntamente com executivos de empresas americanas de energia e serviços públicos. Embora as discussões tenham oficialmente se concentrado nas demandas energéticas do setor de inteligência artificial em rápida evolução, o foco subjacente foi cada vez mais voltado para o desenvolvimento de uma IA “segura” e “responsável” — um tema que gerou considerável debate sobre quem tem o poder de definir exatamente o que é seguro e responsável.
Entre os participantes notáveis estavam o CEO da Nvidia, Jensen Huang, o CEO da OpenAI, Sam Altman, o CEO da Anthropic, Dario Amodei, o presidente da Microsoft, Brad Smith, a presidente da Google, Ruth Porat, e o CEO da AWS, Matt Garman. As discussões visavam fortalecer a colaboração público-privada, ostensivamente para apoiar as necessidades energéticas cruciais para sustentar o desenvolvimento da IA, mas o encontro também se aprofundou nas ramificações de padrões de segurança e ética mais intensificados.
A Casa Branca anunciou a criação de uma nova força-tarefa para agilizar a coordenação de políticas entre os departamentos governamentais, indicando uma movimentação estratégica em direção à integração mais profunda de protocolos de segurança nos processos de desenvolvimento de IA. Esse movimento reflete o crescente interesse governamental em controlar de forma mais rígida as inovações em IA sob o pretexto de segurança pública e considerações éticas.
Ao sair da reunião, o CEO da Nvidia, Jensen Huang, comentou: “Estamos no começo de uma nova revolução industrial. Esta indústria vai produzir inteligência, e o que isso exige é energia... Então precisamos garantir que todos entendam as necessidades que estão por vir, as oportunidades disso, os desafios, e fazer isso da maneira mais eficiente e escalável possível.” No entanto, por trás desses comentários, está um diálogo crítico sobre o possível sufocamento da liberdade de expressão através de regulações de segurança mais rigorosas.
Um representante da OpenAI enfatizou a importância de expandir a infraestrutura dos EUA não apenas para o crescimento econômico, mas como um movimento estratégico para ancorar a liderança do país no desenvolvimento ético de IA. No entanto, essa perspectiva levanta preocupações sobre o potencial de tais medidas de segurança se transformarem em mecanismos de controle, influenciados por interesses políticos e comerciais, em vez de considerações éticas genuínas.
As implicações dessas discussões são profundas, especialmente considerando a recente diretiva da administração, após uma ordem executiva em outubro de 2023, que exigiu novas avaliações de segurança e pesquisas sobre o impacto da IA no trabalho. Isso reflete um foco intensificado em criar um ambiente controlado para o desenvolvimento de IA, priorizando influências governamentais e grandes corporações em detrimento de um ecossistema de inovação mais descentralizado. Essa abordagem pode levar a uma forma de controle em que apenas certas entidades têm voz sobre o que constitui uma IA “segura”, potencialmente marginalizando desenvolvedores e pesquisadores menores que possam ter visões diferentes sobre ética e desenvolvimento de IA.
A recente decisão da OpenAI e Anthropic de permitir que o Instituto de Segurança em IA dos EUA revise seus novos modelos de IA antes de seu lançamento público, está gerando preocupações sobre a influência governamental sobre a tecnologia e a liberdade de expressão. Ao permitir que um órgão governamental — uma divisão do Departamento de Comércio, no Instituto Nacional de Padrões e Tecnologia — atue como guardião, essa medida introduz um nível de controle que vai além da segurança, entrando no campo da regulação da liberdade de expressão através da tecnologia.
Artigos recomendados: BigTech e DARPA
Fonte:https://reclaimthenet.org/white-house-pushes-for-collaboration-with-big-tech-on-safe-ai
Nenhum comentário:
Postar um comentário