RTN, 27/12/2023
Por Didi Rankovic
O Google entrou com um pedido no Escritório de Marcas e Patentes dos EUA para uma ferramenta que usaria aprendizado de máquina (ML, um subconjunto de IA), para detectar o que o Google decide considerar como “desinformação” nas redes sociais.
O Google já utiliza elementos de IA em seus algoritmos, programados para automatizar a censura em suas plataformas massivas, e este documento indica um caminho específico que a empresa pretende seguir no futuro.
O objetivo geral da patente é identificar operações de informação (IO) e então o sistema deve “prever” se há “desinformação” ali.
A julgar pela explicação que o Google anexou ao processo, à primeira vista parece que ele culpa a sua própria existência pela proliferação de “desinformação” – o texto afirma que as campanhas de operações de informação são baratas e amplamente utilizadas, porque é fácil tornar as suas mensagens virais graças a “amplificação incentivada por plataformas de mídia social.”
Mas parece que o Google está desenvolvendo a ferramenta pensando em outras plataformas.
A gigante da tecnologia afirma especificamente que outros (mencionando X, Facebook e LinkedIn pelo nome no processo) poderiam fazer o sistema treinar seus próprios “diferentes modelos de previsão”.
O próprio aprendizado de máquina depende de algoritmos que alimentam uma grande quantidade de dados, e existem dois tipos de aprendizado de máquina – “supervisionado” e “não supervisionado”, onde o último funciona fornecendo um algoritmo com enormes conjuntos de dados (como imagens, ou neste caso, idioma) e pedindo-lhe que “aprenda” a identificar o que está “olhando”.
(A aprendizagem por reforço faz parte do processo – em essência, o algoritmo é treinado para se tornar cada vez mais eficiente na detecção de tudo o que aqueles que criam o sistema estão procurando).
O objetivo final aqui seria muito provavelmente que o Google tornasse a sua “detecção de desinformação”, ou seja, a censura mais eficiente, ao mesmo tempo que visava um tipo específico de dados.
A patente de fato afirma que usa modelos de linguagem de redes neurais (onde as redes neurais representam a “infraestrutura” do ML).
A ferramenta do Google classificará os dados como IO ou benignos e visa ainda rotulá-los como provenientes de um indivíduo, uma organização ou um país.
E então o modelo prevê a probabilidade de esse conteúdo ser uma “campanha de desinformação”, atribuindo-lhe uma pontuação.
Artigos recomendados: ML e BigTech
Nenhum comentário:
Postar um comentário