Páginas

25 de jul. de 2023

Um 'neuroescudo' poderia proteger os cidadãos da IA, argumenta neurocientista




TX, 24/07/2023 



Por Avery Ruxer 



Há uma necessidade urgente de apoiar os cidadãos com um sistema de autodefesa digital, argumenta um especialista em neurociência do Baker Institute of Public Policy da Rice University.

São necessárias medidas para regular a inteligência artificial avançada (IA) e a mídia social aprimorada por IA, para proteger as pessoas da IA ​​"hackeando" nossos relacionamentos interpessoais e inteligência coletiva, diz Harris Eyre, membro da área de saúde cerebral do Baker Institute.

Embora essa tecnologia traga o mundo inteiro para nossos dispositivos e ofereça amplas oportunidades para realização individual e comunitária, ela também pode distorcer a realidade e criar falsas ilusões”, escreve ele no novo relatório. “Ao espalhar desinformação e má informação, a mídia social e a IA representam um desafio direto ao funcionamento de nossas democracias”.

Atualmente, deep fakes já estão causando preocupação quando o país entra em uma temporada de eleições. Eyre argumenta que há uma necessidade urgente de projetar políticas baseadas em neurociência para apoiar os cidadãos contra a IA – como um “neuroescudo”.

"A maneira como interpretamos a realidade ao nosso redor, a maneira como aprendemos e reagimos, depende da maneira como nossos cérebros estão conectados", escreve ele. "Tem sido argumentado que, devido ao rápido aumento da tecnologia, a evolução não teve tempo suficiente para desenvolver as regiões do neocórtex que são responsáveis ​​por funções cognitivas superiores. Como consequência, somos biologicamente vulneráveis ​​e expostos."

O neuroescudo envolveria uma abordagem tripla: desenvolver um código de conduta com relação à objetividade da informação, implementar proteções regulatórias e criar um kit de ferramentas educacionais para os cidadãos.

O relatório argumenta que a cooperação entre editores, jornalistas, líderes de mídia, formadores de opinião e cientistas do cérebro pode formar um "código de conduta" que apoie a objetividade da informação. Eyre explica que a interpretação dos fatos está no âmbito da liberdade social e política, mas verdades inegáveis ​​precisam ser protegidas.

"Como a neurociência demonstra, a ambigüidade na compreensão dos fatos pode criar 'verdades alternativas' que se tornam fortemente codificadas em nossos cérebros", explica ele.

Um kit de ferramentas desenvolvido com neurocientistas pode proteger a liberdade cognitiva e, ao mesmo tempo, proteger as pessoas – especialmente os jovens nas mídias sociais – da desinformação. O objetivo principal do kit de ferramentas seria ajudar as pessoas a aprender como fazer sua própria verificação de fatos e lutar contra a suscetibilidade do cérebro, ao viés e à desinformação. Por exemplo, o Google atualmente tem campanhas em outros países que exibem vídeos curtos em sites de mídia social e destacam a forma como afirmações enganosas podem ser feitas.

No entanto, a autogovernança e a confiança exclusiva em um código de conduta podem criar um campo de atuação desigual, argumenta Eyre.

É fundamental que tanto os formuladores de políticas quanto os cientistas do cérebro avancem nessa abordagem política”, diz ele. "A Lei Europeia de IA proposta é um exemplo de previsão de como os provedores de modelos de IA podem ser responsabilizados e manter a transparência. Ao envolver neurocientistas no planejamento e implantação do Neuroshield, os EUA podem garantir que os melhores insights existentes sobre o funcionamento de nossa cognição sejam levados em consideração."

Artigos recomendados: BCI e Web3


Fonte:https://techxplore.com/news/2023-07-neuroshield-citizens-artificial-intelligence-neuroscience.html 

Nenhum comentário:

Postar um comentário