TB, 27/07/2023
Por Maggie Harrison
Clube do bot
Os grandes nomes da indústria de IA acabaram de formar uma nova mesa no refeitório do Vale do Silício.
OpenAI, Microsoft e Google, além da DeepMind, de propriedade do Google, e da vibrante startup Anthropic, formaram juntos o The Frontier Model Forum, um órgão liderado pela indústria que, de acordo com um comunicado à imprensa, afirma estar buscando impor a "segurança e responsabilidade no desenvolvimento" da IA.
“As empresas que criam tecnologia de IA têm a responsabilidade de garantir que ela seja segura e permaneça sob controle humano”, disse o presidente da Microsoft, Brad Smith, em comunicado. “Esta iniciativa é um passo vital para unir o setor de tecnologia no avanço da IA de forma responsável, e enfrentar os desafios para que beneficie toda a humanidade”.
Em outras palavras, é uma tentativa de autorregulação da indústria de IA . Mas, embora seja bom ver os principais participantes do setor unirem forças para estabelecer algumas práticas recomendadas para o desenvolvimento responsável da IA, a autorregulação tem algumas limitações sérias. Afinal, sem capacidade do governo de fazer valer quaisquer regras do Fórum Modelo de Fronteira por meio de ações como sanções, multas ou processos criminais, o corpo, pelo menos por enquanto, é principalmente simbólico. Energia de atividade extracurricular em grupo.
Estação de Auto-Regulação
Também é importante notar que alguns nomes notáveis foram deixados de fora do salto. O Meta-antigo-Facebook dirigido por Mark Zuckerberg aparentemente não é membro do clube, enquanto Elon Musk e seu recém-lançado xAI, que foi - suspiro - aparentemente desenvolvido para "entender a realidade", foram deixados de lado. (Dito isso, embora Meta, que tem alguns modelos bastante avançados no convés, possa ter algum espaço para reclamar sobre o desprezo, Musk e seu stonerbot provavelmente não).
O Fórum diz que outros podem se sentar com eles no futuro, desde que estejam fazendo o que o grupo considera ser "modelos de fronteira" - definidos pelo grupo como "modelos de aprendizado de máquina em larga escala que excedem as capacidades atualmente presente nos modelos existentes mais avançados, e pode executar uma ampla variedade de tarefas" - e promete comprometer-se com um compromisso geral e principalmente não especificado com segurança e responsabilidade.
Novamente, não podemos dizer que não é bom ver esse tipo de discussão acontecendo entre as principais empresas de IA. Mas também não podemos exagerar o fato de que todas essas são empresas com fins lucrativos com incentivo financeiro para produzir produtos de IA, e a autorregulação não vinculativa está longe de ser uma regra e supervisão governamental real e de todo o setor . É um começo? Claro! Mas não vamos deixar a responsabilidade parar por aqui.
Artigos recomendados: Corps e Mídias
Fonte:https://futurism.com/the-byte/openai-google-self-regulate-ai
Nenhum comentário:
Postar um comentário