Mostrando postagens classificadas por data para a consulta linguagem. Ordenar por relevância Mostrar todas as postagens
Mostrando postagens classificadas por data para a consulta linguagem. Ordenar por relevância Mostrar todas as postagens

8 de fev. de 2025

Geórgia substituirá lei de ‘influência estrangeira’ por medida no estilo dos EUA




IP, 07/02/2025



O partido governista da Geórgia anunciou nesta sexta-feira que substituirá uma lei amplamente criticada sobre “influência estrangeira”, por uma cópia direta de uma legislação dos Estados Unidos, após meses de protestos e crescente insatisfação popular.  

No ano passado, o país propôs uma lei que obrigava ONGs e organizações de mídia a se registrarem como “organizações que perseguem os interesses de uma potência estrangeira”, caso recebessem pelo menos um quinto de seu financiamento do exterior.  

6 de fev. de 2025

IA comportamental é nossa melhor esperança para combater ameaças de engenharia social




VB, 04/02/2025



Enquanto líderes empresariais e especialistas discutem e debatem sobre o ciclo de hype da IA, cibercriminosos têm estado ocupados lançando ataques devastadores impulsionados por inteligência artificial. Ataques de engenharia social gerados por IA — incluindo phishing e comprometimento de e-mails corporativos — aumentaram drasticamente, com ferramentas de código aberto como ChatGPT (e suas contrapartes maliciosas, GhostGPT, FraudGPT e WormGPT) oferecendo a fraudadores sem experiência técnica um novo campo de atuação para criar ataques. Eles estão desenvolvendo ataques sofisticados e incrivelmente convincentes em larga escala, visando o vetor de segurança mais vulnerável de qualquer empresa: os humanos, em todos os níveis da organização.

28 de jan. de 2025

DeepSeek: empresa chinesa de IA causando impacto no Vale do Silício




IP, 27/01/2025



O chatbot de inteligência artificial da empresa chinesa DeepSeek chegou ao topo das paradas de downloads da Apple Store, surpreendendo especialistas e analistas do setor com sua capacidade de competir com rivais dos EUA.

O programa abalou a indústria tecnológica, afetando gigantes americanos como Nvidia e Meta, que investiram grandes somas de dinheiro para liderar o setor de IA em rápido desenvolvimento.

21 de jan. de 2025

A CIA está silenciosamente usando IA para criar versões simuladas de líderes mundiais.





TB, 21/01/2025



Por Noor Al-Sibai



Família Espiã  

A Agência Central de Inteligência (CIA) está intensificando seus esforços no campo da inteligência artificial (IA) — incluindo uma aplicação surpreendente da tecnologia de chatbots.  

Segundo o The New York Times, a CIA está desenvolvendo uma plataforma que permite que analistas "conversem" com líderes estrangeiros, buscando prever como esses líderes poderiam reagir em determinadas situações.  

26 de dez. de 2024

'Sim, eu sou um humano': a detecção de bots não está mais funcionando





TX, 25/12/2024 



Por Irfan Mehmood 



Então só espere até que os agentes de IA apareçam.

Você está atrasado no aeroporto e precisa acessar sua conta urgentemente, apenas para ser recebido por um desses testes frustrantes — "Selecione todas as imagens com semáforos" ou "Digite as letras que você vê nesta caixa". Você aperta os olhos, você adivinha, mas de alguma forma você está errado. Você completa outro teste, mas ainda assim o site não está satisfeito.

"Seu voo está embarcando agora", o alto-falante anuncia enquanto o site lhe dá mais um quebra-cabeça. Você xinga a tela, fecha seu laptop e corre em direção ao portão.

24 de dez. de 2024

Um sistema de IA alcançou nível humano em um teste de "inteligência geral"—veja o que isso significa




TX, 24/12/2024 



Por Michael Timothy



Um novo modelo de inteligência artificial (IA) atingiu recentemente resultados em nível humano em um teste projetado para medir "inteligência geral".  

Em 20 de dezembro, o sistema o3 da OpenAI obteve 85% no benchmark ARC-AGI, superando em muito o melhor desempenho anterior de IA, que era de 55%, e igualando a pontuação média humana. Ele também teve um bom desempenho em um teste de matemática extremamente difícil. 

8 de dez. de 2024

IA agora pode criar uma réplica da sua personalidade





MITTR, 20/11/2024 



Por James O'Donnell



Uma entrevista de duas horas é suficiente para capturar com precisão seus valores e preferências, de acordo com uma nova pesquisa da Stanford e do Google DeepMind.

Imagine sentar-se com um modelo de IA para uma entrevista falada de duas horas. Uma voz amigável guia você através de uma conversa que abrange sua infância, memórias formativas, carreira e suas opiniões sobre política de imigração. Não muito tempo depois, uma réplica virtual sua é capaz de incorporar seus valores e preferências com precisão impressionante.

Isso agora é possível, de acordo com um novo artigo de uma equipe que inclui pesquisadores da Stanford e do Google DeepMind, publicado no arXiv e ainda não revisado por pares.

Gigante dos jogos Riot amplia regras para policiar o comportamento de jogadores em todas as plataformas




RTN, 06/12/2024 



Por Didi Rankovic




A Riot Games expande seus Termos de Serviço, permitindo banimentos por "conduta fora da plataforma" vaga, levantando preocupações sobre censura nas comunidades de Valorant e League of Legends.

A Riot Games — desenvolvedora e publicadora norte-americana de jogos, mas de propriedade da Tencent, da China — atualizou seus Termos de Serviço para se dar o direito de punir usuários pelo que chama de “conduta fora da plataforma.”  

28 de nov. de 2024

Modelo de IA que imita a personalidade humana levanta questões sobre deepfakes




BU, 28/11/2024 



Por Masha Borak



Golpistas já utilizam deepfakes de áudio e vídeo para enganar familiares, amigos e parceiros comerciais de suas vítimas. Mas o que aconteceria se eles também pudessem imitar suas personalidades?  

Pesquisadores de Stanford e do Google DeepMind treinaram modelos de IA para replicar a personalidade de uma pessoa após apenas duas horas de conversa.  

O estudo envolveu mais de 1.000 participantes que participaram de entrevistas de duas horas, abrangendo diversos tópicos: vida pessoal, opiniões sobre questões sociais, testes de personalidade e lógica, experimentos em ciências sociais e jogos econômicos. As respostas foram gravadas e usadas para treinar modelos generativos de IA personalizados para cada participante. Esses modelos foram chamados de “agentes de simulação”.  

12 de nov. de 2024

Meta agora permite que agências militares acessem seu software de IA, levantando dilemas morais para todos os usuários




TX, 12/11/2024 



Por Zena Assad 



A gigante tecnológica Meta anunciou que disponibilizará seus modelos de inteligência artificial (IA) generativa para o governo dos Estados Unidos, em uma decisão controversa que levanta um dilema moral para todos que utilizam o software.

Na semana passada, a Meta revelou que disponibilizará os modelos, conhecidos como Llama, para agências governamentais, “incluindo aquelas que trabalham em aplicações de defesa e segurança nacional, e parceiros do setor privado que apoiam esse trabalho”.

9 de nov. de 2024

Grupo de IA ‘Unrestricted’ Nous Research Lança Primeiro Chatbot





VB, 07/11/2024 



Por Carl Frazen 



Nous Research, o grupo de pesquisa em IA dedicado a criar modelos de IA personalizados e sem restrições como uma alternativa a empresas mais corporativas como OpenAI, Anthropic, Google, Meta e outras, já havia lançado vários modelos de código aberto da sua família Hermes, além de novos métodos mais eficientes de treinamento de IA.

Mas, até hoje, se pesquisadores e usuários quisessem realmente usar esses modelos, precisavam baixar e rodar o código em suas próprias máquinas — uma tarefa demorada, complexa e potencialmente cara — ou utilizá-los em sites parceiros.

7 de nov. de 2024

Quão próximos estamos de um detector preciso de notícias falsas com IA?




TX, 06/11/2024 



Por Magda Osman 



Na ambiciosa busca para combater os danos causados por conteúdos falsos nas redes sociais e sites de notícias, cientistas de dados estão sendo criativos.

Embora ainda em fase inicial, os modelos de linguagem de grande escala (LLMs), usados para criar chatbots como o ChatGPT, estão sendo recrutados para identificar notícias falsas. Com uma detecção mais eficiente, sistemas de verificação com IA podem alertar sobre os potenciais danos de deepfakes, propaganda, teorias da conspiração e desinformação, e, no fim, neutralizá-los.

As próximas ferramentas de IA irão personalizar a detecção de conteúdo falso e nos proteger contra ele. Para essa transformação centrada no usuário, a ciência de dados precisa recorrer à ciência comportamental e à neurociência.

24 de out. de 2024

Regulamentação da IA na Saúde: FDA emite novas diretrizes




IWT, 23/10/2024 



Por Heidi Vella 



FDA diz que flexibilidade e mecanismos especiais para grandes modelos de linguagem são necessários na regulamentação da IA para saúde e biomedicina.

A IA tem grande potencial para transformar aspectos da saúde, mas sua regulamentação deve ser coordenada com todas as outras indústrias regulamentadas e com o governo, afirmou a Agência de Alimentos e Medicamentos dos EUA (FDA).

A abordagem também deve ser compatível com organizações internacionais, devido ao fato de que a FDA regula indústrias que possuem produtos e serviços distribuídos globalmente, destacou a agência.

Amanhecer dos Agentes: Nova IA Claude pode assumir o controle do seu computador




NA, 22/10/2024 



Por Loz Blain 



A próxima onda de modelos de IA revolucionários está prestes a chegar – modelos no estilo "agente", capazes de assumir tarefas e trabalhos inteiros com total autonomia. O mais novo modelo de IA da Anthropic nos dá uma prévia, assumindo o controle completo do seu computador.

Se você ainda não se deparou com a ideia de um agente de IA – ou se vê Modelos de Linguagem Natural (LLMs) como o Claude e o GPT principalmente como serviços de bate-papo, o CEO da OpenAI, Sam Altman, pode ajudar a colocar as coisas em perspectiva. No breve vídeo abaixo, Altman explica os cinco níveis de IA conforme sua empresa os enxerga.

22 de out. de 2024

Líderes religiosos se opõem ao polêmico projeto de lei sobre discurso na Austrália




RTN, 21/10/2024 



Por Didi Rankovic 



O projeto de lei sobre “desinformação e fake news” da Austrália está sendo criticado por vários líderes cristãos e muçulmanos, preocupados com o impacto negativo que suas disposições podem ter sobre o discurso religioso.

O Projeto de Emenda Legislativa de Comunicações (Combate à Desinformação e Fake News) de 2024 visa conceder novos poderes ao regulador de comunicações e mídia do governo, ACMA, no que diz respeito à aplicação de regras sobre conteúdo online.

19 de out. de 2024

Hospital do NHS criticado por orientar funcionários a evitar dizer que as pessoas "nascem homem ou mulher"




TCI, 17/10/2024 



Um hospital do NHS republicou orientações dizendo a seus funcionários para usar a expressão "atribuído como mulher/homem ao nascer" em vez de "nascido" mulher/homem.

Chamado de "Celebrando o Orgulho", o guia do James Paget University Hospitals NHS Foundation Trust afirma que a linguagem de “atribuído” descreve com precisão o que acontece no nascimento.

Inicialmente emitido em 2021, ele foi revisado em junho deste ano e inclui um glossário de terminologia ideológica e uma seção sobre os "faça e não faça da linguagem inclusiva LGBTQ+".

15 de out. de 2024

Modelo de aprendizado multitarefa aprimora a identificação de "discurso de ódio"





TX, 14/10/2024 



Pesquisadores desenvolveram uma nova maneira de detectar automaticamente o discurso de ódio nas plataformas de mídia social de forma mais precisa e consistente, utilizando um novo modelo de aprendizado multitarefa (MTL); um tipo de modelo de aprendizado de máquina que trabalha com vários conjuntos de dados.

A disseminação de discurso de ódio abusivo online pode aprofundar divisões políticas, marginalizar grupos vulneráveis, enfraquecer a democracia e causar danos no mundo real, incluindo um aumento no risco de terrorismo doméstico.

9 de out. de 2024

ChatGPT pode reconhecer ‘identidades faciais’ e estimar idade: pesquisa





BU, 08/10/2024 



Por Joel R. McConvey 



O grande modelo de linguagem (LLM) ChatGPT "reconhece identidades faciais e diferencia entre duas imagens faciais com considerável precisão", de acordo com um estudo recém-divulgado que explora o potencial de aplicar LLMs a “tarefas biométricas”.

O artigo, “ChatGPT e Biometria: uma Avaliação das Capacidades de Reconhecimento Facial, Detecção de Gênero e Estimativa de Idade” cumpre o que o título sugere. “Embora as aplicações de LLMs, como o ChatGPT, tenham sido estudadas para diferentes tarefas, suas capacidades para biometria não foram exploradas”, afirma o texto.

8 de out. de 2024

Primeiro-ministro belga censura o Papa Francisco por declarações sobre aborto




BTB, 05/10/2024 



Por Thomas D Williams 



ROMA — O primeiro-ministro da Bélgica protestou contra declarações do Papa Francisco condenando o aborto como assassinato, insistindo que elas constituem uma interferência nos assuntos internos do país.

Durante sua recente visita à Bélgica, o pontífice elogiou o falecido Rei Balduíno por sua coragem ao optar por "deixar temporariamente sua posição como rei para evitar assinar uma lei assassina", que legalizou o aborto em 1990.

Na época, Balduíno explicou sua decisão ao primeiro-ministro, dizendo: “Temo que esta lei contribua para uma diminuição palpável do respeito pelas vidas dos mais fracos entre nós.

4 de out. de 2024

A Suécia pode em breve ter 1 milhão de analfabetos, em grande parte devido à imigração em massa




RM, 02/10/2024 



Há quase um milhão de pessoas que são analfabetas na Suécia, sendo a imigração um dos principais fatores contribuintes.

O número de pessoas analfabetas na Suécia deve ultrapassar 800.000 no inverno deste ano, com pesquisadores prevendo que o número logo chegará a 1 milhão, em grande parte devido à imigração em massa.

A pesquisa mais recente da Statistics Sweden, mostra que atualmente há cerca de 780.000 pessoas entre 16 e 65 anos, que são analfabetas na Suécia, mas esse número está subindo rapidamente.

Related Posts Plugin for WordPress, Blogger...