Mostrando postagens classificadas por data para a consulta IA agentes. Ordenar por relevância Mostrar todas as postagens
Mostrando postagens classificadas por data para a consulta IA agentes. Ordenar por relevância Mostrar todas as postagens

18 de jun. de 2024

Viajantes para a UE podem ser submetidos a detector de mentiras por IA





BU, 17/06/2024 



Por Masha Borak 



Viajantes britânicos para a Europa podem em breve ter que passar pelo escrutínio do polêmico detector de mentiras de inteligência artificial iBorderCtrl, da União Europeia, ou por software similar de análise de comportamento.

O software analisa movimentos faciais e gestos corporais para identificar comportamentos suspeitos para os agentes de imigração. O sistema pode ser incorporado nas verificações de fronteira em aeroportos e terminais de ferry como parte dos esquemas de controle de fronteira da UE, o Sistema de Entrada e Saída (EES) e o Sistema Europeu de Informação e Autorização de Viagem (ETIAS), de acordo com o The Mail on Sunday.

30 de mai. de 2024

Modelo orientado por dados gera movimentos humanos naturais para avatares virtuais




TX, 30/05/2024 



Por Ingrid Fadelli



Os humanos podem realizar naturalmente uma ampla variedade de movimentos, o que lhes permite lidar melhor com várias tarefas em seu dia a dia. Reproduzir automaticamente esses movimentos em avatares virtuais e personagens humanóides 3D animados poderia ser altamente vantajoso para muitas aplicações, desde espaços metaverso até entretenimento digital, interfaces de IA e robótica.

Pesquisadores do Instituto Max Planck para Sistemas Inteligentes e ETH Zurich desenvolveram recentemente o WANDR, um novo modelo que pode gerar movimentos humanos naturais para avatares. Este modelo, a ser apresentado em um artigo na Conferência sobre Visão Computacional e Reconhecimento de Padrões (CVPR 2024) em junho, unifica diferentes fontes de dados sob um único modelo para obter movimentos mais realistas em personagens humanóides 3D. O artigo também está disponível no servidor de pré-impressão arXiv.

21 de mai. de 2024

A "teoria da internet morta" faz reivindicações sinistras sobre uma web controlada por IA. A verdade é mais sinistra





TX, 20/05/2024 



Por Jake Renzella 



Se você pesquisar "camarão Jesus" no Facebook, pode encontrar dezenas de imagens de crustáceos geradas por inteligência artificial (IA) mescladas em várias formas com uma imagem estereotipada de Jesus Cristo.

Algumas dessas imagens hiper-realistas receberam mais de 20.000 curtidas e comentários. Então, o que exatamente está acontecendo aqui?

A "teoria da internet morta" tem uma explicação: o conteúdo gerado por IA e bots superou a internet gerada por humanos. Mas de onde veio essa ideia, e ela tem alguma base na realidade?

1 de mai. de 2024

A análise de voz por IA fornece aos trabalhadores das linhas de prevenção ao suicídio um painel emocional




NA, 01/05/2024 



Por Paul McClure 



Um modelo de IA rastreia com precisão emoções como medo e preocupação nas vozes dos atendentes de linhas de crise, de acordo com uma nova pesquisa. O desenvolvedor do modelo espera que ele possa fornecer assistência em tempo real aos operadores de telefone enquanto trabalham para prevenir suicídios.

A triagem dos operadores das linhas de crise ou suicídio quanto ao seu nível atual de risco de suicídio é crucial para detectar e prevenir o suicídio.

19 de abr. de 2024

O novo modelo de IA do MIT prevê o comportamento humano com uma precisão impressionante




SCTD, 19/04/2024 



Uma nova técnica pode ser usada para prever as ações de agentes humanos ou de IA que se comportam de forma subótima, enquanto trabalham em direção a objetivos desconhecidos.

Pesquisadores do MIT e de outras instituições desenvolveram um framework que modela o comportamento irracional ou subótimo de um agente humano ou de IA, com base em suas limitações computacionais. Sua técnica pode ajudar a prever as ações futuras de um agente, por exemplo, em partidas de xadrez.

5 de abr. de 2024

Pesquisas em teoria dos jogos mostram que a IA pode evoluir para personalidades mais egoístas ou cooperativas




TX, 04/04/2024 



Pesquisadores no Japão desenvolveram efetivamente uma variedade diversificada de traços de personalidade em IA de diálogo, usando um modelo de linguagem em grande escala (LLM, do inglês Large Language Model). Utilizando o dilema do prisioneiro da teoria dos jogos, o Professor Takaya Arita e o Professor Associado Reiji Suzuki da equipe da Escola de Pós-Graduação em Informática da Universidade de Nagoya, criaram uma estrutura para evoluir agentes de IA que imitam o comportamento humano alternando entre ações egoístas e cooperativas, adaptando suas estratégias por meio de processos evolutivos. Seus achados foram publicados na revista Scientific Reports.

13 de mar. de 2024

Desenvolvedor de software de IA de próxima geração gera e treina suas próprias IAs




NA, 13/03/2024 



Por Loz Blain 



Ele pode planejar e executar autonomamente tarefas de milhares de etapas. Pode construir e implantar projetos de software inteiros sozinho. Pode pesquisar e corrigir bugs 7 vezes melhor do que o GPT-4 da OpenAI, e treina e implanta suas próprias IA personalizadas para resolver problemas.

A Cognition Labs anunciou o Devin, o "primeiro engenheiro de software de IA do mundo". E embora seja verdade que LLMs anteriores como o GPT-4 e o Claude da Anthropic já fossem capazes de escrever e executar código há algum tempo, o Devin parece ser uma mudança significativa.

16 de fev. de 2024

O AI Act da UE está deixando uma brecha para o reconhecimento de emoções?




BU, 16/02/2024 



Por Masha Borak 



Enquanto a União Europeia se prepara para adotar o Artificial Intelligence Act, a legislação histórica ainda está atraindo críticas, desta vez por permitir o uso do reconhecimento de emoções. Um artigo de opinião publicado no EU Observer destaca que o AI Act ainda deixa a porta aberta para seu uso em aplicação da lei e por agentes de migração, o que poderia levar a potenciais abusos de direitos.

O autor anônimo, que se descreve como um funcionário civil da UE, afirma que isso abre espaço para seu uso em aplicação da lei e controle de migração, especialmente no controverso projeto iBorderCtrl financiado pela UE, um detector de mentiras de IA para tecnologias de reconhecimento facial e de emoção projetadas para serem usadas durante o interrogatório de migrantes. Em 2018, o bloco anunciou que financiaria o projeto e conduziria testes-piloto na Hungria, Grécia e Letônia.

10 de fev. de 2024

A OpenAI está trabalhando em 2 agentes de IA que poderiam automatizar tarefas complexas: Relatório




Indian, 10/02/2024 



Os novos agentes de IA da OpenAI podem transformar a forma como tarefas complexas são realizadas pela IA.

É bem sabido que a IA agora pode automatizar quase todas as tarefas, mas será que ela pode automatizar processos de trabalho inteiros? A gigante da IA, OpenAI, pode ter algumas respostas. Supostamente, a empresa liderada por Sam Altman está desenvolvendo dois tipos únicos de IA que têm o potencial de automatizar tarefas complexas.

18 de jan. de 2024

Meta está desenvolvendo AGI de código aberto, diz Zuckerberg




VB, 18/01/2024 



Por Sharon Goldman 



Em uma surpresa no Instagram Reel hoje, o CEO da Meta, Mark Zuckerberg, disse que a empresa está desenvolvendo inteligência geral artificial (AGI) de código aberto.

Está aproximando duas das suas equipes de investigação em IA – FAIR e GenAI – com o objetivo de construir inteligência geral completa e abrir o seu código tanto quanto possível.

13 de dez. de 2023

Um político da Pensilvânia usou um chatbot de chamada para ligar para milhares de eleitores




TB, 13/12/2023 



Por Sharon Adarlo 



Pretendemos fazer dezenas de milhares de ligações por dia até o final do ano e chegar aos seis dígitos em breve.

Distopia Política

Embora esta era da inteligência artificial esteja em seus estágios iniciais, às vezes já parece que estamos vivendo uma distopia tecnológica de Philip K. Dick, desde bots que fingem amar você até bots programados para matá-lo.

28 de nov. de 2023

A empresa Moderna é flagrada monitorando o discurso online




RTN, 27/11/2023 



Por Cindy Harper 



Descobriu-se que a Moderna, uma empresa farmacêutica líder, tal como foi revelado pela Pfizer no início deste ano, tem estado ativamente envolvida no monitoramento e na influência de narrativas relacionadas com vacinas nas redes sociais e outras plataformas.

Isto está sendo realizado através de uma colaboração com a Public Good Projects (PGP), uma organização sem fins lucrativos financiada pela indústria farmacêutica, bem como com antigos responsáveis ​​pela aplicação da lei e pela saúde pública. O PGP está intimamente ligado a plataformas de redes sociais, órgãos governamentais e sites de notícias para identificar e neutralizar as principais fontes de hesitação em relação à vacinação, visando e neutralizando rapidamente a "desinformação".

15 de nov. de 2023

IAs podem armazenar mensagens secretas em seus textos que são imperceptíveis para os humanos




TB, 14/11/2023 



Por Maggie Harrison 



Tinta invisível

Exatamente o que precisávamos: IA dominando sua própria versão imperceptível de tinta invisível.

Como relata VentureBeat, um estudo recente – embora ainda a ser revisado por pares – conduzido pelo grupo de pesquisa de alinhamento de IA Redwood Research descobriu que grandes modelos de linguagem (LLMs) são incrivelmente bons em um tipo de esteganografia apelidada de "raciocínio codificado". Basicamente, diz o estudo, os LLMs podem ser treinados para usar mensagens secretas para obscurecer os seus processos de pensamento passo a passo, uma prática que, curiosamente, poderia tornar os seus resultados mais precisos – ao mesmo tempo que os torna mais enganadores.

25 de out. de 2023

A IBM descobre que o ChatGPT pode gerar e-mails de phishing quase tão convincentes quanto um ser humano




VB, 24/10/2023 



Por Taryn Plumb 



À medida que continua evoluindo a um ritmo quase inimaginável, a IA está se tornando capaz de muitas coisas extraordinárias — desde gerar arte deslumbrante e mundos 3D até servir como um parceiro eficiente e fiável no local de trabalho

Mas a IA generativa e os grandes modelos de linguagem (LLMs) são tão enganosos quanto os seres humanos?

Quase. Finalmente, por enquanto, mantemos nossa supremacia nessa área, de acordo com uma pesquisa divulgada hoje pela IBM X-Force. Em um experimento de phishing conduzido para determinar se a IA ou os humanos obteriam uma taxa de cliques mais alta, o ChatGPT criou um e-mail convincente em minutos a partir de apenas cinco prompts simples que se mostraram quase – mas não tão – tão atraentes quanto um gerado por humanos. 

26 de set. de 2023

Até a CIA está desenvolvendo um chatbot de IA




EDT, 26/09/2023 



Por Shanklin 



A CIA e outras agências de inteligência dos EUA terão em breve um chatbot de IA semelhante ao ChatGPT. O programa, revelado nesta terça-feira pela Bloomberg, treinará com base em dados disponíveis publicamente e fornecerá fontes juntamente com suas respostas para que os agentes possam confirmar sua validade. O objetivo é que os espiões dos EUA vasculhem mais facilmente os crescentes tesouros de informação, embora a natureza exata do que constitui “dados públicos” possa desencadear algumas questões espinhosas de privacidade.

12 de set. de 2023

Como os agentes de IA já estão simulando a civilização humana




VB, 11/09/2023 



Por Ben Dickson 



Modelos de grande linguagem (LLM) de inteligência artificial (IA), como o sucesso GPT-3, 3.5 e 4 da OpenAI, codificam uma riqueza de informações sobre como vivemos, nos comunicamos e nos comportamos, e os pesquisadores estão constantemente encontrando novas maneiras de colocar isso como conhecimento para usar.

Um estudo recente conduzido por pesquisadores da Universidade de Stanford demonstrou que, com o design correto, os LLMs podem ser aproveitados para simular o comportamento humano de uma maneira dinâmica e convincentemente realista.

31 de ago. de 2023

Órgão de operações especiais dos EUA pagará por ferramenta de vigilância de mídia social para "combater desinformação"




RTN, 31/08/2023 



Por Didi Rankovic 



A Accrete AI anunciou que recebeu um contrato do Comando de Operações Especiais dos EUA (USSOCOM) para implantar sua ferramenta chamada Argus Social, que supostamente fornecerá previsão em tempo real de “ameaças de desinformação das mídias sociais”.

A Accrete – descrita como uma empresa de duplo propósito, cujo site declara que fornece “agentes de IA universalmente configuráveis, confiáveis ​​e precisos para automação de decisões” – anunciou o acordo com o USSOCOM em um comunicado à imprensa.

11 de ago. de 2023

Pentágono anuncia competição para desenvolver novos programas de IA e tapar buracos na defesa cibernética nacional

O navio autônomo "Sea Hunter", desenvolvido pela DARPA, está atracado em Portland, Oregon, após sua cerimônia de batismo em 7 de abril de 2016. 




FX, 11/08/2023 



Por Peter Aitken 



O vencedor da competição de 2 anos ganhará $ 4 milhões em prêmios em dinheiro

A Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) anunciou uma competição para empresas fornecerem novas plataformas de inteligência artificial (IA), para ajudar a identificar e fechar brechas na segurança cibernética nacional. 

No AI Cyber ​​Challenge, nosso objetivo é criar novamente esse tipo de novo ecossistema com um conjunto diversificado de concorrentes cibernéticos criativos, capacitados pelas principais empresas de IA do país, todos apontando novas maneiras de proteger a infraestrutura de software que sustenta nossa economia", DARPA Outreach disse à Fox News Digital. 

4 de ago. de 2023

HADAR: Novo método permite que a IA veja através da escuridão total como a luz do dia




SCTD, 03/08/2023 



A inovação pioneira, atualmente pendente de aprovação de patente, tem a capacidade de discernir textura e profundidade, além de compreender as características físicas dos indivíduos e do ambiente.

Cientistas da Purdue University estão impulsionando o futuro da robótica e dos sistemas autônomos com seu método de patente pendente que melhora a visão, e a percepção típicas das máquinas.

20 de jul. de 2023

Futuros algoritmos de IA têm potencial para aprender como humanos, dizem pesquisadores




TX, 20/07/2023 



Por Tatyana Woodall 



As memórias podem ser tão difíceis de manter para as máquinas quanto para os humanos. Para ajudar a entender por que os agentes artificiais desenvolvem buracos em seus próprios processos cognitivos, engenheiros elétricos da Ohio State University analisaram o quanto um processo chamado "aprendizado contínuo" afeta seu desempenho geral.

Aprendizagem contínua é quando um computador é treinado para aprender continuamente uma sequência de tarefas, usando seu conhecimento acumulado de tarefas antigas para aprender melhor novas tarefas.

Related Posts Plugin for WordPress, Blogger...