ZMSC, 02/12/2022
Por Nancy S. Jecker
Da guerra ao entretenimento e VR, o desenvolvimento da interface cérebro-computador se estendeu além das próteses para pacientes com deficiências. Falta é a consideração ética completa das consequências.
Imagine que um soldado tenha um minúsculo dispositivo de computador injetado em sua corrente sanguínea que pode ser guiado por um ímã para regiões específicas de seu cérebro. Com treinamento, o soldado poderia controlar sistemas de armas a milhares de quilômetros de distância usando apenas seus pensamentos. Incorporar um tipo semelhante de computador no cérebro de um soldado poderia suprimir seu medo e ansiedade, permitindo-lhes realizar missões de combate com mais eficiência. Indo um passo além, um dispositivo equipado com um sistema de inteligência artificial poderia controlar diretamente o comportamento de um soldado, prevendo quais opções eles escolheriam em sua situação atual.
Embora esses exemplos possam soar como ficção científica, a ciência para desenvolver neurotecnologias como essas já está em desenvolvimento. As interfaces cérebro-computador, ou BCI, são tecnologias que decodificam e transmitem sinais cerebrais a um dispositivo externo para realizar uma ação desejada. Basicamente, um usuário só precisaria pensar no que deseja fazer e um computador faria isso por ele.
Atualmente, os BCIs estão sendo testados em pessoas com distúrbios neuromusculares graves para ajudá-los a recuperar funções cotidianas, como comunicação e mobilidade. Por exemplo, os pacientes podem ligar um interruptor de luz visualizando a ação e fazendo com que um BCI decodifique seus sinais cerebrais e os transmita ao interruptor. Da mesma forma, os pacientes podem se concentrar em letras, palavras ou frases específicas em uma tela de computador que um BCI pode mover um cursor para selecionar.
No entanto, as considerações éticas não acompanharam o ritmo da ciência. Embora os eticistas tenham pressionado por mais investigações éticas sobre a modificação neural em geral, muitas questões práticas sobre as interfaces cérebro-computador não foram totalmente consideradas. Por exemplo, os benefícios do BCI superam os riscos substanciais de invasão cerebral, roubo de informações e controle de comportamento? O BCI deve ser usado para conter ou aumentar emoções específicas? Que efeito os BCIs teriam na agência moral, na identidade pessoal e na saúde mental de seus usuários?
Essas questões são de grande interesse para nós, filósofos e neurocirurgiões que estudam a ética e a ciência das aplicações BCI atuais e futuras. Considerar a ética do uso dessa tecnologia antes de sua implementação pode evitar danos potenciais. Argumentamos que o uso responsável da BCI requer salvaguardar a capacidade das pessoas de funcionar em uma variedade de maneiras que são consideradas essenciais para o ser humano.
Expandindo o BCI além da clínica
Os pesquisadores estão explorando aplicações de interface cérebro-computador não médicas em muitos campos, incluindo jogos, realidade virtual, performance artística, guerra e controle de tráfego aéreo.
Por exemplo, a Neuralink, uma empresa co-fundada por Elon Musk, está desenvolvendo um implante cerebral para que pessoas saudáveis possam se comunicar sem fio com qualquer pessoa com um implante semelhante e configuração de computador.
Em 2018, a Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) das Forças Armadas dos EUA lançou um programa para desenvolver “um sistema de interface neural portátil e seguro, capaz de ler e escrever em vários pontos do cérebro ao mesmo tempo”. Seu objetivo é produzir BCI não cirúrgico para membros do serviço fisicamente aptos para aplicações de segurança nacional até 2050. Por exemplo, um soldado em uma unidade de forças especiais pode usar BCI para enviar e receber pensamentos com um colega soldado e comandante de unidade, uma forma de contato direto comunicação de três vias que permitiria atualizações em tempo real e uma resposta mais rápida às ameaças.
Pelo que sabemos, esses projetos não abriram uma discussão pública sobre a ética dessas tecnologias. Embora os militares dos EUA reconheçam que “as percepções públicas e sociais negativas precisarão ser superadas” para implementar com sucesso o BCI, diretrizes éticas práticas são necessárias para avaliar melhor as neurotecnologias propostas antes de implantá-las.
Utilitarismo
Uma abordagem para lidar com as questões éticas levantadas pela BCI é utilitária. O utilitarismo é uma teoria ética que se esforça para maximizar a felicidade ou o bem-estar de todos os afetados por uma ação ou política.
Melhorar os soldados pode criar o bem maior ao melhorar as habilidades de combate de uma nação, proteger os recursos militares ao manter os soldados distantes e manter a prontidão militar. Defensores utilitaristas do neuro-aprimoramento argumentam que tecnologias emergentes como BCI são moralmente equivalentes a outras formas amplamente aceitas de aprimoramento cerebral. Por exemplo, estimulantes como a cafeína podem melhorar a velocidade de processamento do cérebro e melhorar a memória.
No entanto, alguns temem que as abordagens utilitárias para BCI tenham pontos cegos morais. Em contraste com as aplicações médicas projetadas para ajudar os pacientes, as aplicações militares são projetadas para ajudar uma nação a vencer guerras. No processo, a BCI pode ignorar os direitos individuais, como o direito de ser mental e emocionalmente saudável.
Por exemplo, soldados que operam drones em guerra remota relatam hoje níveis mais altos de sofrimento emocional, transtorno de estresse pós-traumático e casamentos desfeitos em comparação com soldados no terreno. Claro, os soldados rotineiramente optam por se sacrificar pelo bem maior. Mas se o neuro-aprimoramento se tornar um requisito de trabalho, isso pode levantar preocupações únicas sobre coerção.
Neurodireito
Outra abordagem à ética da BCI, neurorights, prioriza certos valores éticos, mesmo que isso não maximize o bem-estar geral.
Os defensores dos neurodireitos defendem os direitos dos indivíduos à liberdade cognitiva, privacidade mental, integridade mental e continuidade psicológica. Um direito à liberdade cognitiva pode barrar a interferência irracional no estado mental de uma pessoa. Um direito à privacidade mental pode exigir a garantia de um espaço mental protegido, enquanto um direito à integridade mental proibiria danos específicos aos estados mentais de uma pessoa. Por fim, o direito à continuidade psicológica pode proteger a capacidade de uma pessoa de manter um senso coerente de si mesma ao longo do tempo.
Os BCIs podem interferir nos neurodireitos de várias maneiras. Por exemplo, se um BCI alterar a aparência do mundo para um usuário, ele pode não ser capaz de distinguir seus próprios pensamentos ou emoções de versões alteradas de si mesmo. Isso pode violar neurodireitos como privacidade mental ou integridade mental.
No entanto, os soldados já perdem direitos semelhantes. Por exemplo, os militares dos EUA podem restringir a liberdade de expressão e o livre exercício da religião dos soldados de maneiras que normalmente não são aplicadas ao público em geral. Infringir neurodireitos seria diferente?
Capacidades humanas
Uma abordagem de capacidade humana insiste que salvaguardar certas capacidades humanas é crucial para proteger a dignidade humana. Enquanto os neurodireitos se concentram na capacidade individual de pensar, uma visão de capacidade considera uma gama mais ampla do que as pessoas podem fazer e ser, como a capacidade de ser emocional e fisicamente saudável, mover-se livremente de um lugar para outro, relacionar-se com os outros e com a natureza, exercitar os sentidos e a imaginação, sentir e expressar emoções, brincar e recriar e regular o ambiente imediato.
Consideramos uma abordagem de capacidade atraente porque fornece uma imagem mais robusta da humanidade e do respeito pela dignidade humana. Com base nessa visão, argumentamos que os aplicativos BCI propostos devem proteger razoavelmente todos os recursos centrais de um usuário em um limite mínimo. A BCI projetada para aprimorar recursos além das capacidades humanas comuns precisaria ser implantada de forma a atingir os objetivos do usuário, não apenas os de outras pessoas.
Por exemplo, um BCI bidirecional que não apenas extrai e processa sinais cerebrais, mas fornece feedback somatossensorial, como sensações de pressão ou temperatura, de volta ao usuário, representaria riscos irracionais se interrompesse a capacidade do usuário de confiar em seus próprios sentidos. Da mesma forma, qualquer tecnologia, incluindo BCIs, que controle os movimentos de um usuário infringiria sua dignidade se não permitisse ao usuário alguma capacidade de anulá-la.
Uma limitação de uma visão de capacidade é que pode ser difícil definir o que conta como uma capacidade de limite. A visão não descreve quais novas capacidades valem a pena buscar. No entanto, o neuro-aprimoramento pode alterar o que é considerado um limite padrão e, eventualmente, introduzir capacidades humanas inteiramente novas. Abordar isso requer complementar uma abordagem de capacidade com uma análise ética mais completa projetada para responder a essas perguntas.
Artigos recomendados: BCI e H+
Nenhum comentário:
Postar um comentário