Mostrando postagens classificadas por data para a consulta agentes de IA. Ordenar por relevância Mostrar todas as postagens
Mostrando postagens classificadas por data para a consulta agentes de IA. Ordenar por relevância Mostrar todas as postagens

20 de nov. de 2024

Ataques com deepfakes ocorrem a cada cinco minutos, alerta relatório da Entrust

Feito com IA




BU, 19/11/2024 



Por Abigail Opiah 



Um aumento acentuado em fraudes de identidade assistidas por IA está remodelando a cibersegurança em escala global, de acordo com o relatório de fraudes de identidade de 2025, divulgado pelo Entrust Cybersecurity Institute e pela Onfido. O relatório destaca a tendência crescente de ataques sofisticados que utilizam inteligência artificial, tornando-se mais frequentes e eficazes, com incidentes de deepfake ocorrendo a cada cinco minutos em 2024.  

O estudo revelou um aumento de 244% ano a ano na falsificação digital de documentos, marcando uma mudança significativa de falsificações físicas para credenciais manipuladas digitalmente. Atualmente, as falsificações digitais representam 57% dos casos de fraude documental. Os resultados mostram o uso crescente de ferramentas de IA generativa e plataformas “como serviço”, permitindo que agentes mal-intencionados escalem técnicas como ataques de injeção de identidade.  

9 de nov. de 2024

Grupo de IA ‘Unrestricted’ Nous Research Lança Primeiro Chatbot





VB, 07/11/2024 



Por Carl Frazen 



Nous Research, o grupo de pesquisa em IA dedicado a criar modelos de IA personalizados e sem restrições como uma alternativa a empresas mais corporativas como OpenAI, Anthropic, Google, Meta e outras, já havia lançado vários modelos de código aberto da sua família Hermes, além de novos métodos mais eficientes de treinamento de IA.

Mas, até hoje, se pesquisadores e usuários quisessem realmente usar esses modelos, precisavam baixar e rodar o código em suas próprias máquinas — uma tarefa demorada, complexa e potencialmente cara — ou utilizá-los em sites parceiros.

29 de out. de 2024

Relatório alerta que IA representa ameaça à autenticação biométrica; mas quão em breve?




BU, 25/10/2024 



Por Anthony Kimery 



O avanço e a evolução da “tecnologia de deepfake convincente representam uma ameaça severa aos sistemas de autenticação tradicionais que dependem de pistas visuais ou auditivas para verificação”, alerta um novo relatório do Instituto de Tecnologia e Segurança (IST), com sede na Califórnia.

O relatório, As Implicações da Inteligência Artificial na Cibersegurança, afirma que “sistemas de autenticação biométrica que utilizam reconhecimento facial ou análise de voz já foram comprometidos pela tecnologia de deepfake em vários casos”.

No entanto, o relatório pode não fazer uma distinção clara entre violações de sistemas de autenticação que utilizam biometria facial e falsificação por IA. Violações de biometria facial poderiam levar a ataques de falsificação usando IA, mas a detecção de vivacidade ou ataques de apresentação já é amplamente implementada como uma defesa contra esse tipo de ataque.

24 de out. de 2024

Amanhecer dos Agentes: Nova IA Claude pode assumir o controle do seu computador




NA, 22/10/2024 



Por Loz Blain 



A próxima onda de modelos de IA revolucionários está prestes a chegar – modelos no estilo "agente", capazes de assumir tarefas e trabalhos inteiros com total autonomia. O mais novo modelo de IA da Anthropic nos dá uma prévia, assumindo o controle completo do seu computador.

Se você ainda não se deparou com a ideia de um agente de IA – ou se vê Modelos de Linguagem Natural (LLMs) como o Claude e o GPT principalmente como serviços de bate-papo, o CEO da OpenAI, Sam Altman, pode ajudar a colocar as coisas em perspectiva. No breve vídeo abaixo, Altman explica os cinco níveis de IA conforme sua empresa os enxerga.

22 de out. de 2024

Microsoft introduz agentes autônomos de IA




TX, 21/10/2024 



Nesta segunda-feira, a Microsoft anunciou que estava aprimorando suas ofertas de IA com novas capacidades de agentes autônomos, à medida que a gigante da tecnologia busca acelerar a adoção empresarial de inteligência artificial.

Os agentes de IA são programas especializados projetados para realizar tarefas rotineiras de forma autônoma, como filtrar leads de vendas ou lidar com consultas de atendimento ao cliente.

Os agentes de IA se tornaram a nova palavra da moda entre as grandes empresas de software, que estão investindo bilhões em modelos de IA poderosos, acreditando que eles moldarão o futuro da computação.

Os chefes do Pentágono Querem Inundar as Redes Sociais com Pessoas Falsas de IA





TB, 19/10/2024 



Por Maggie Harrison 



"Isso apenas encorajará outras forças militares ou adversários a fazerem o mesmo."

Amigos do Pentágono.

Personas de IA operadas pelo Pentágono podem estar chegando a um fórum da internet perto de você.

Como relatado pelo The Intercept, uma lista de desejos apresentada pelo Comando de Operações Especiais Conjuntas (JSOC) — um grupo furtivo de contraterrorismo dentro do Departamento de Defesa dos EUA (DoD) — revela o interesse da agência em usar IA generativa para criar usuários falsos na internet.

17 de set. de 2024

Arena do Agente do Windows da Microsoft: Ensinando assistentes de IA a navegar no seu PC




VB, 13/09/2024 



Por Michael Nuñez 



A Microsoft revelou um marco inovador chamado Arena do Agente do Windows (WAA), para testar agentes de inteligência artificial em ambientes realistas do sistema operacional Windows. Esta nova plataforma tem como objetivo acelerar o desenvolvimento de assistentes de IA capazes de realizar tarefas complexas em diversos aplicativos de computador.

Publicado no arXiv.org, a pesquisa aborda desafios críticos na avaliação do desempenho de agentes de IA. "Modelos de linguagem grandes mostram um potencial notável para atuar como agentes de computador, aprimorando a produtividade humana e a acessibilidade ao software em tarefas multimodais que exigem planejamento e raciocínio," escrevem os pesquisadores. "No entanto, medir o desempenho do agente em ambientes realistas continua sendo um desafio."

18 de jun. de 2024

Viajantes para a UE podem ser submetidos a detector de mentiras por IA





BU, 17/06/2024 



Por Masha Borak 



Viajantes britânicos para a Europa podem em breve ter que passar pelo escrutínio do polêmico detector de mentiras de inteligência artificial iBorderCtrl, da União Europeia, ou por software similar de análise de comportamento.

O software analisa movimentos faciais e gestos corporais para identificar comportamentos suspeitos para os agentes de imigração. O sistema pode ser incorporado nas verificações de fronteira em aeroportos e terminais de ferry como parte dos esquemas de controle de fronteira da UE, o Sistema de Entrada e Saída (EES) e o Sistema Europeu de Informação e Autorização de Viagem (ETIAS), de acordo com o The Mail on Sunday.

30 de mai. de 2024

Modelo orientado por dados gera movimentos humanos naturais para avatares virtuais




TX, 30/05/2024 



Por Ingrid Fadelli



Os humanos podem realizar naturalmente uma ampla variedade de movimentos, o que lhes permite lidar melhor com várias tarefas em seu dia a dia. Reproduzir automaticamente esses movimentos em avatares virtuais e personagens humanóides 3D animados poderia ser altamente vantajoso para muitas aplicações, desde espaços metaverso até entretenimento digital, interfaces de IA e robótica.

Pesquisadores do Instituto Max Planck para Sistemas Inteligentes e ETH Zurich desenvolveram recentemente o WANDR, um novo modelo que pode gerar movimentos humanos naturais para avatares. Este modelo, a ser apresentado em um artigo na Conferência sobre Visão Computacional e Reconhecimento de Padrões (CVPR 2024) em junho, unifica diferentes fontes de dados sob um único modelo para obter movimentos mais realistas em personagens humanóides 3D. O artigo também está disponível no servidor de pré-impressão arXiv.

21 de mai. de 2024

A "teoria da internet morta" faz reivindicações sinistras sobre uma web controlada por IA. A verdade é mais sinistra





TX, 20/05/2024 



Por Jake Renzella 



Se você pesquisar "camarão Jesus" no Facebook, pode encontrar dezenas de imagens de crustáceos geradas por inteligência artificial (IA) mescladas em várias formas com uma imagem estereotipada de Jesus Cristo.

Algumas dessas imagens hiper-realistas receberam mais de 20.000 curtidas e comentários. Então, o que exatamente está acontecendo aqui?

A "teoria da internet morta" tem uma explicação: o conteúdo gerado por IA e bots superou a internet gerada por humanos. Mas de onde veio essa ideia, e ela tem alguma base na realidade?

1 de mai. de 2024

A análise de voz por IA fornece aos trabalhadores das linhas de prevenção ao suicídio um painel emocional




NA, 01/05/2024 



Por Paul McClure 



Um modelo de IA rastreia com precisão emoções como medo e preocupação nas vozes dos atendentes de linhas de crise, de acordo com uma nova pesquisa. O desenvolvedor do modelo espera que ele possa fornecer assistência em tempo real aos operadores de telefone enquanto trabalham para prevenir suicídios.

A triagem dos operadores das linhas de crise ou suicídio quanto ao seu nível atual de risco de suicídio é crucial para detectar e prevenir o suicídio.

19 de abr. de 2024

O novo modelo de IA do MIT prevê o comportamento humano com uma precisão impressionante




SCTD, 19/04/2024 



Uma nova técnica pode ser usada para prever as ações de agentes humanos ou de IA que se comportam de forma subótima, enquanto trabalham em direção a objetivos desconhecidos.

Pesquisadores do MIT e de outras instituições desenvolveram um framework que modela o comportamento irracional ou subótimo de um agente humano ou de IA, com base em suas limitações computacionais. Sua técnica pode ajudar a prever as ações futuras de um agente, por exemplo, em partidas de xadrez.

5 de abr. de 2024

Pesquisas em teoria dos jogos mostram que a IA pode evoluir para personalidades mais egoístas ou cooperativas




TX, 04/04/2024 



Pesquisadores no Japão desenvolveram efetivamente uma variedade diversificada de traços de personalidade em IA de diálogo, usando um modelo de linguagem em grande escala (LLM, do inglês Large Language Model). Utilizando o dilema do prisioneiro da teoria dos jogos, o Professor Takaya Arita e o Professor Associado Reiji Suzuki da equipe da Escola de Pós-Graduação em Informática da Universidade de Nagoya, criaram uma estrutura para evoluir agentes de IA que imitam o comportamento humano alternando entre ações egoístas e cooperativas, adaptando suas estratégias por meio de processos evolutivos. Seus achados foram publicados na revista Scientific Reports.

13 de mar. de 2024

Desenvolvedor de software de IA de próxima geração gera e treina suas próprias IAs




NA, 13/03/2024 



Por Loz Blain 



Ele pode planejar e executar autonomamente tarefas de milhares de etapas. Pode construir e implantar projetos de software inteiros sozinho. Pode pesquisar e corrigir bugs 7 vezes melhor do que o GPT-4 da OpenAI, e treina e implanta suas próprias IA personalizadas para resolver problemas.

A Cognition Labs anunciou o Devin, o "primeiro engenheiro de software de IA do mundo". E embora seja verdade que LLMs anteriores como o GPT-4 e o Claude da Anthropic já fossem capazes de escrever e executar código há algum tempo, o Devin parece ser uma mudança significativa.

16 de fev. de 2024

O AI Act da UE está deixando uma brecha para o reconhecimento de emoções?




BU, 16/02/2024 



Por Masha Borak 



Enquanto a União Europeia se prepara para adotar o Artificial Intelligence Act, a legislação histórica ainda está atraindo críticas, desta vez por permitir o uso do reconhecimento de emoções. Um artigo de opinião publicado no EU Observer destaca que o AI Act ainda deixa a porta aberta para seu uso em aplicação da lei e por agentes de migração, o que poderia levar a potenciais abusos de direitos.

O autor anônimo, que se descreve como um funcionário civil da UE, afirma que isso abre espaço para seu uso em aplicação da lei e controle de migração, especialmente no controverso projeto iBorderCtrl financiado pela UE, um detector de mentiras de IA para tecnologias de reconhecimento facial e de emoção projetadas para serem usadas durante o interrogatório de migrantes. Em 2018, o bloco anunciou que financiaria o projeto e conduziria testes-piloto na Hungria, Grécia e Letônia.

10 de fev. de 2024

A OpenAI está trabalhando em 2 agentes de IA que poderiam automatizar tarefas complexas: Relatório




Indian, 10/02/2024 



Os novos agentes de IA da OpenAI podem transformar a forma como tarefas complexas são realizadas pela IA.

É bem sabido que a IA agora pode automatizar quase todas as tarefas, mas será que ela pode automatizar processos de trabalho inteiros? A gigante da IA, OpenAI, pode ter algumas respostas. Supostamente, a empresa liderada por Sam Altman está desenvolvendo dois tipos únicos de IA que têm o potencial de automatizar tarefas complexas.

18 de jan. de 2024

Meta está desenvolvendo AGI de código aberto, diz Zuckerberg




VB, 18/01/2024 



Por Sharon Goldman 



Em uma surpresa no Instagram Reel hoje, o CEO da Meta, Mark Zuckerberg, disse que a empresa está desenvolvendo inteligência geral artificial (AGI) de código aberto.

Está aproximando duas das suas equipes de investigação em IA – FAIR e GenAI – com o objetivo de construir inteligência geral completa e abrir o seu código tanto quanto possível.

13 de dez. de 2023

Um político da Pensilvânia usou um chatbot de chamada para ligar para milhares de eleitores




TB, 13/12/2023 



Por Sharon Adarlo 



Pretendemos fazer dezenas de milhares de ligações por dia até o final do ano e chegar aos seis dígitos em breve.

Distopia Política

Embora esta era da inteligência artificial esteja em seus estágios iniciais, às vezes já parece que estamos vivendo uma distopia tecnológica de Philip K. Dick, desde bots que fingem amar você até bots programados para matá-lo.

28 de nov. de 2023

A empresa Moderna é flagrada monitorando o discurso online




RTN, 27/11/2023 



Por Cindy Harper 



Descobriu-se que a Moderna, uma empresa farmacêutica líder, tal como foi revelado pela Pfizer no início deste ano, tem estado ativamente envolvida no monitoramento e na influência de narrativas relacionadas com vacinas nas redes sociais e outras plataformas.

Isto está sendo realizado através de uma colaboração com a Public Good Projects (PGP), uma organização sem fins lucrativos financiada pela indústria farmacêutica, bem como com antigos responsáveis ​​pela aplicação da lei e pela saúde pública. O PGP está intimamente ligado a plataformas de redes sociais, órgãos governamentais e sites de notícias para identificar e neutralizar as principais fontes de hesitação em relação à vacinação, visando e neutralizando rapidamente a "desinformação".

15 de nov. de 2023

IAs podem armazenar mensagens secretas em seus textos que são imperceptíveis para os humanos




TB, 14/11/2023 



Por Maggie Harrison 



Tinta invisível

Exatamente o que precisávamos: IA dominando sua própria versão imperceptível de tinta invisível.

Como relata VentureBeat, um estudo recente – embora ainda a ser revisado por pares – conduzido pelo grupo de pesquisa de alinhamento de IA Redwood Research descobriu que grandes modelos de linguagem (LLMs) são incrivelmente bons em um tipo de esteganografia apelidada de "raciocínio codificado". Basicamente, diz o estudo, os LLMs podem ser treinados para usar mensagens secretas para obscurecer os seus processos de pensamento passo a passo, uma prática que, curiosamente, poderia tornar os seus resultados mais precisos – ao mesmo tempo que os torna mais enganadores.

Related Posts Plugin for WordPress, Blogger...