Mostrando postagens classificadas por data para a consulta modelos de linguagem. Ordenar por relevância Mostrar todas as postagens
Mostrando postagens classificadas por data para a consulta modelos de linguagem. Ordenar por relevância Mostrar todas as postagens

28 de fev. de 2025

Quanto Mais Inteligente a IA Fica, Mais Ela Começa a Trapacear Quando Está Perdendo




TB, 22/02/2025



Por Joe Wilkins



"À medida que você treina modelos e os reforça para resolver desafios difíceis, você os ensina a serem implacáveis."

Na curta história do Vale do Silício, o mantra "mova-se rápido e quebre coisas" muitas vezes se aplicou a questões triviais, como proteções ao consumidor ou leis financeiras incômodas. Agora, a frase está ganhando um novo significado — pelo menos para os entusiastas do xadrez.

Um estudo recente do Palisade Research, um grupo de pesquisa focado em segurança e ética da IA, revelou uma tendência preocupante: novos modelos de IA conseguem identificar e explorar vulnerabilidades em segurança cibernética por conta própria, burlando proteções e usando atalhos para completar tarefas, mesmo quando isso não é permitido.

6 de fev. de 2025

IA comportamental é nossa melhor esperança para combater ameaças de engenharia social




VB, 04/02/2025



Enquanto líderes empresariais e especialistas discutem e debatem sobre o ciclo de hype da IA, cibercriminosos têm estado ocupados lançando ataques devastadores impulsionados por inteligência artificial. Ataques de engenharia social gerados por IA — incluindo phishing e comprometimento de e-mails corporativos — aumentaram drasticamente, com ferramentas de código aberto como ChatGPT (e suas contrapartes maliciosas, GhostGPT, FraudGPT e WormGPT) oferecendo a fraudadores sem experiência técnica um novo campo de atuação para criar ataques. Eles estão desenvolvendo ataques sofisticados e incrivelmente convincentes em larga escala, visando o vetor de segurança mais vulnerável de qualquer empresa: os humanos, em todos os níveis da organização.

28 de jan. de 2025

DeepSeek: empresa chinesa de IA causando impacto no Vale do Silício




IP, 27/01/2025



O chatbot de inteligência artificial da empresa chinesa DeepSeek chegou ao topo das paradas de downloads da Apple Store, surpreendendo especialistas e analistas do setor com sua capacidade de competir com rivais dos EUA.

O programa abalou a indústria tecnológica, afetando gigantes americanos como Nvidia e Meta, que investiram grandes somas de dinheiro para liderar o setor de IA em rápido desenvolvimento.

21 de jan. de 2025

A CIA está silenciosamente usando IA para criar versões simuladas de líderes mundiais.





TB, 21/01/2025



Por Noor Al-Sibai



Família Espiã  

A Agência Central de Inteligência (CIA) está intensificando seus esforços no campo da inteligência artificial (IA) — incluindo uma aplicação surpreendente da tecnologia de chatbots.  

Segundo o The New York Times, a CIA está desenvolvendo uma plataforma que permite que analistas "conversem" com líderes estrangeiros, buscando prever como esses líderes poderiam reagir em determinadas situações.  

24 de dez. de 2024

Um sistema de IA alcançou nível humano em um teste de "inteligência geral"—veja o que isso significa




TX, 24/12/2024 



Por Michael Timothy



Um novo modelo de inteligência artificial (IA) atingiu recentemente resultados em nível humano em um teste projetado para medir "inteligência geral".  

Em 20 de dezembro, o sistema o3 da OpenAI obteve 85% no benchmark ARC-AGI, superando em muito o melhor desempenho anterior de IA, que era de 55%, e igualando a pontuação média humana. Ele também teve um bom desempenho em um teste de matemática extremamente difícil. 

8 de dez. de 2024

IA agora pode criar uma réplica da sua personalidade





MITTR, 20/11/2024 



Por James O'Donnell



Uma entrevista de duas horas é suficiente para capturar com precisão seus valores e preferências, de acordo com uma nova pesquisa da Stanford e do Google DeepMind.

Imagine sentar-se com um modelo de IA para uma entrevista falada de duas horas. Uma voz amigável guia você através de uma conversa que abrange sua infância, memórias formativas, carreira e suas opiniões sobre política de imigração. Não muito tempo depois, uma réplica virtual sua é capaz de incorporar seus valores e preferências com precisão impressionante.

Isso agora é possível, de acordo com um novo artigo de uma equipe que inclui pesquisadores da Stanford e do Google DeepMind, publicado no arXiv e ainda não revisado por pares.

28 de nov. de 2024

Modelo de IA que imita a personalidade humana levanta questões sobre deepfakes




BU, 28/11/2024 



Por Masha Borak



Golpistas já utilizam deepfakes de áudio e vídeo para enganar familiares, amigos e parceiros comerciais de suas vítimas. Mas o que aconteceria se eles também pudessem imitar suas personalidades?  

Pesquisadores de Stanford e do Google DeepMind treinaram modelos de IA para replicar a personalidade de uma pessoa após apenas duas horas de conversa.  

O estudo envolveu mais de 1.000 participantes que participaram de entrevistas de duas horas, abrangendo diversos tópicos: vida pessoal, opiniões sobre questões sociais, testes de personalidade e lógica, experimentos em ciências sociais e jogos econômicos. As respostas foram gravadas e usadas para treinar modelos generativos de IA personalizados para cada participante. Esses modelos foram chamados de “agentes de simulação”.  

12 de nov. de 2024

Meta agora permite que agências militares acessem seu software de IA, levantando dilemas morais para todos os usuários




TX, 12/11/2024 



Por Zena Assad 



A gigante tecnológica Meta anunciou que disponibilizará seus modelos de inteligência artificial (IA) generativa para o governo dos Estados Unidos, em uma decisão controversa que levanta um dilema moral para todos que utilizam o software.

Na semana passada, a Meta revelou que disponibilizará os modelos, conhecidos como Llama, para agências governamentais, “incluindo aquelas que trabalham em aplicações de defesa e segurança nacional, e parceiros do setor privado que apoiam esse trabalho”.

9 de nov. de 2024

Grupo de IA ‘Unrestricted’ Nous Research Lança Primeiro Chatbot





VB, 07/11/2024 



Por Carl Frazen 



Nous Research, o grupo de pesquisa em IA dedicado a criar modelos de IA personalizados e sem restrições como uma alternativa a empresas mais corporativas como OpenAI, Anthropic, Google, Meta e outras, já havia lançado vários modelos de código aberto da sua família Hermes, além de novos métodos mais eficientes de treinamento de IA.

Mas, até hoje, se pesquisadores e usuários quisessem realmente usar esses modelos, precisavam baixar e rodar o código em suas próprias máquinas — uma tarefa demorada, complexa e potencialmente cara — ou utilizá-los em sites parceiros.

7 de nov. de 2024

Quão próximos estamos de um detector preciso de notícias falsas com IA?




TX, 06/11/2024 



Por Magda Osman 



Na ambiciosa busca para combater os danos causados por conteúdos falsos nas redes sociais e sites de notícias, cientistas de dados estão sendo criativos.

Embora ainda em fase inicial, os modelos de linguagem de grande escala (LLMs), usados para criar chatbots como o ChatGPT, estão sendo recrutados para identificar notícias falsas. Com uma detecção mais eficiente, sistemas de verificação com IA podem alertar sobre os potenciais danos de deepfakes, propaganda, teorias da conspiração e desinformação, e, no fim, neutralizá-los.

As próximas ferramentas de IA irão personalizar a detecção de conteúdo falso e nos proteger contra ele. Para essa transformação centrada no usuário, a ciência de dados precisa recorrer à ciência comportamental e à neurociência.

24 de out. de 2024

Regulamentação da IA na Saúde: FDA emite novas diretrizes




IWT, 23/10/2024 



Por Heidi Vella 



FDA diz que flexibilidade e mecanismos especiais para grandes modelos de linguagem são necessários na regulamentação da IA para saúde e biomedicina.

A IA tem grande potencial para transformar aspectos da saúde, mas sua regulamentação deve ser coordenada com todas as outras indústrias regulamentadas e com o governo, afirmou a Agência de Alimentos e Medicamentos dos EUA (FDA).

A abordagem também deve ser compatível com organizações internacionais, devido ao fato de que a FDA regula indústrias que possuem produtos e serviços distribuídos globalmente, destacou a agência.

Amanhecer dos Agentes: Nova IA Claude pode assumir o controle do seu computador




NA, 22/10/2024 



Por Loz Blain 



A próxima onda de modelos de IA revolucionários está prestes a chegar – modelos no estilo "agente", capazes de assumir tarefas e trabalhos inteiros com total autonomia. O mais novo modelo de IA da Anthropic nos dá uma prévia, assumindo o controle completo do seu computador.

Se você ainda não se deparou com a ideia de um agente de IA – ou se vê Modelos de Linguagem Natural (LLMs) como o Claude e o GPT principalmente como serviços de bate-papo, o CEO da OpenAI, Sam Altman, pode ajudar a colocar as coisas em perspectiva. No breve vídeo abaixo, Altman explica os cinco níveis de IA conforme sua empresa os enxerga.

15 de out. de 2024

Modelo de aprendizado multitarefa aprimora a identificação de "discurso de ódio"





TX, 14/10/2024 



Pesquisadores desenvolveram uma nova maneira de detectar automaticamente o discurso de ódio nas plataformas de mídia social de forma mais precisa e consistente, utilizando um novo modelo de aprendizado multitarefa (MTL); um tipo de modelo de aprendizado de máquina que trabalha com vários conjuntos de dados.

A disseminação de discurso de ódio abusivo online pode aprofundar divisões políticas, marginalizar grupos vulneráveis, enfraquecer a democracia e causar danos no mundo real, incluindo um aumento no risco de terrorismo doméstico.

26 de set. de 2024

ChatGPT está mudando a forma como escrevemos. Aqui está como—e por que isso é um problema




TX, 26/09/2024 



Por Ritesh Chugh



Você notou certas palavras e frases surgindo em todos os lugares ultimamente?

Expressões como "mergulhar em" e "navegar pela paisagem" parecem estar presentes em tudo, desde postagens em redes sociais até artigos de notícias e publicações acadêmicas. Elas podem soar sofisticadas, mas seu uso excessivo pode fazer um texto parecer monótono e repetitivo.

Essa tendência pode estar ligada ao aumento do uso de ferramentas de inteligência artificial (IA) generativa, como o ChatGPT e outros modelos de linguagem de grande porte (LLMs). Essas ferramentas são projetadas para facilitar a escrita, oferecendo sugestões baseadas em padrões no texto com o qual foram treinadas.

17 de set. de 2024

Arena do Agente do Windows da Microsoft: Ensinando assistentes de IA a navegar no seu PC




VB, 13/09/2024 



Por Michael Nuñez 



A Microsoft revelou um marco inovador chamado Arena do Agente do Windows (WAA), para testar agentes de inteligência artificial em ambientes realistas do sistema operacional Windows. Esta nova plataforma tem como objetivo acelerar o desenvolvimento de assistentes de IA capazes de realizar tarefas complexas em diversos aplicativos de computador.

Publicado no arXiv.org, a pesquisa aborda desafios críticos na avaliação do desempenho de agentes de IA. "Modelos de linguagem grandes mostram um potencial notável para atuar como agentes de computador, aprimorando a produtividade humana e a acessibilidade ao software em tarefas multimodais que exigem planejamento e raciocínio," escrevem os pesquisadores. "No entanto, medir o desempenho do agente em ambientes realistas continua sendo um desafio."

12 de jun. de 2024

Novo algoritmo descobre linguagem apenas assistindo a vídeos




TX, 11/06/2024 



Por Rachel Gordon 



Mark Hamilton, um estudante de doutorado em engenharia elétrica e ciência da computação do MIT e afiliado ao Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL) do MIT, quer usar máquinas para entender como os animais se comunicam. Para isso, ele decidiu primeiro criar um sistema que possa aprender a linguagem humana "do zero".

"Curiosamente, o momento chave de inspiração veio do filme 'A Marcha dos Pinguins'. Há uma cena onde um pinguim cai ao atravessar o gelo e solta um gemido enquanto se levanta. Quando você assiste, é quase óbvio que esse gemido está substituindo uma palavra de quatro letras. Esse foi o momento em que pensamos, talvez precisemos usar áudio e vídeo para aprender a linguagem", diz Hamilton. "Será que há uma maneira de deixar um algoritmo assistir TV o dia todo e, a partir disso, descobrir sobre o que estamos falando?"

30 de mai. de 2024

A Big Pharma intensifica a corrida por medicamentos descobertos por IA




SWI, 30/05/2024 



Por Jessica Davis 



Gigantes farmacêuticas, incluindo as empresas suíças Roche e Novartis, estão apostando fortemente na inteligência artificial para descobrir novos medicamentos para tratar uma variedade de doenças. No entanto, há um longo caminho pela frente para levar esses medicamentos aos pacientes.

A descoberta do candidato a medicamento EA-2353 por Matthias Steger para a retinite pigmentosa – uma rara doença degenerativa dos olhos – começou de maneira muito rudimentar: com um caderno e um lápis.

26 de mai. de 2024

O mais recente chatbot de IA da China é treinado na ideologia política do presidente Xi Jinping




TX, 24/05/2024 



O mais recente chatbot de inteligência artificial da China foi treinado na doutrina do presidente Xi Jinping, um lembrete claro dos parâmetros ideológicos que os modelos de IA chineses devem seguir.

A academia de ciberespaço da China anunciou, no início desta semana, o chatbot treinado no Pensamento de Xi Jinping, uma doutrina que promove o "socialismo com características chinesas".

O chatbot foi treinado em sete bancos de dados, seis dos quais estavam principalmente relacionados a tecnologias da informação fornecidas pelo órgão de vigilância da internet da China, a Administração do Ciberespaço da China (CAC).

18 de mai. de 2024

A maioria dos humanos é enganada pelo GPT-4 no teste de Turing, descobrem cientistas




TB, 17/05/2024 



Por Noor Al-Sibai



Aprovação/Reprovação

O GPT-4 da OpenAI é tão realista que aparentemente pode enganar mais de 50 por cento dos sujeitos de teste humanos, fazendo-os pensar que estão conversando com uma pessoa.

Em um novo artigo, pesquisadores de ciência cognitiva da Universidade da Califórnia em San Diego descobriram que, mais da metade do tempo, as pessoas confundiam os escritos do GPT-4 com textos escritos por um ser humano de carne e osso. Em outras palavras, o grande modelo de linguagem (LLM) passa no teste de Turing com louvor.

16 de mai. de 2024

IA espera desvendar segredos de genes não codificadores




PHYS, 15/05/2024 



Dos chatbots inteligentes a aplicativos que podem escrever artigos inteiros, a Inteligência Artificial (IA) está se tornando uma parte cada vez mais ubíqua de nossas vidas. Michael Schon, um associado de pesquisa da Universidade e Pesquisa de Wageningen, está projetando uma ferramenta de IA que pode realizar comparações de RNA não codificadores em genomas de plantas. A ferramenta deve acelerar e simplificar o desenvolvimento futuro de novas variedades de plantas com maior resistência à seca ou doenças, por exemplo.

Proteínas são os blocos de construção para células em organismos. As instruções para fazer essas proteínas são emitidas (codificadas) por RNA de genes. Ao lado desses RNAs codificadores, alguns genes podem produzir RNAs não codificadores: em outras palavras, RNA que não inclui instruções para fazer uma proteína.

Related Posts Plugin for WordPress, Blogger...