Mostrando postagens classificadas por data para a consulta LLMs. Ordenar por relevância Mostrar todas as postagens
Mostrando postagens classificadas por data para a consulta LLMs. Ordenar por relevância Mostrar todas as postagens

7 de nov. de 2024

Quão próximos estamos de um detector preciso de notícias falsas com IA?




TX, 06/11/2024 



Por Magda Osman 



Na ambiciosa busca para combater os danos causados por conteúdos falsos nas redes sociais e sites de notícias, cientistas de dados estão sendo criativos.

Embora ainda em fase inicial, os modelos de linguagem de grande escala (LLMs), usados para criar chatbots como o ChatGPT, estão sendo recrutados para identificar notícias falsas. Com uma detecção mais eficiente, sistemas de verificação com IA podem alertar sobre os potenciais danos de deepfakes, propaganda, teorias da conspiração e desinformação, e, no fim, neutralizá-los.

As próximas ferramentas de IA irão personalizar a detecção de conteúdo falso e nos proteger contra ele. Para essa transformação centrada no usuário, a ciência de dados precisa recorrer à ciência comportamental e à neurociência.

24 de out. de 2024

Amanhecer dos Agentes: Nova IA Claude pode assumir o controle do seu computador




NA, 22/10/2024 



Por Loz Blain 



A próxima onda de modelos de IA revolucionários está prestes a chegar – modelos no estilo "agente", capazes de assumir tarefas e trabalhos inteiros com total autonomia. O mais novo modelo de IA da Anthropic nos dá uma prévia, assumindo o controle completo do seu computador.

Se você ainda não se deparou com a ideia de um agente de IA – ou se vê Modelos de Linguagem Natural (LLMs) como o Claude e o GPT principalmente como serviços de bate-papo, o CEO da OpenAI, Sam Altman, pode ajudar a colocar as coisas em perspectiva. No breve vídeo abaixo, Altman explica os cinco níveis de IA conforme sua empresa os enxerga.

9 de out. de 2024

ChatGPT pode reconhecer ‘identidades faciais’ e estimar idade: pesquisa





BU, 08/10/2024 



Por Joel R. McConvey 



O grande modelo de linguagem (LLM) ChatGPT "reconhece identidades faciais e diferencia entre duas imagens faciais com considerável precisão", de acordo com um estudo recém-divulgado que explora o potencial de aplicar LLMs a “tarefas biométricas”.

O artigo, “ChatGPT e Biometria: uma Avaliação das Capacidades de Reconhecimento Facial, Detecção de Gênero e Estimativa de Idade” cumpre o que o título sugere. “Embora as aplicações de LLMs, como o ChatGPT, tenham sido estudadas para diferentes tarefas, suas capacidades para biometria não foram exploradas”, afirma o texto.

26 de set. de 2024

ChatGPT está mudando a forma como escrevemos. Aqui está como—e por que isso é um problema




TX, 26/09/2024 



Por Ritesh Chugh



Você notou certas palavras e frases surgindo em todos os lugares ultimamente?

Expressões como "mergulhar em" e "navegar pela paisagem" parecem estar presentes em tudo, desde postagens em redes sociais até artigos de notícias e publicações acadêmicas. Elas podem soar sofisticadas, mas seu uso excessivo pode fazer um texto parecer monótono e repetitivo.

Essa tendência pode estar ligada ao aumento do uso de ferramentas de inteligência artificial (IA) generativa, como o ChatGPT e outros modelos de linguagem de grande porte (LLMs). Essas ferramentas são projetadas para facilitar a escrita, oferecendo sugestões baseadas em padrões no texto com o qual foram treinadas.

18 de mai. de 2024

A maioria dos humanos é enganada pelo GPT-4 no teste de Turing, descobrem cientistas




TB, 17/05/2024 



Por Noor Al-Sibai



Aprovação/Reprovação

O GPT-4 da OpenAI é tão realista que aparentemente pode enganar mais de 50 por cento dos sujeitos de teste humanos, fazendo-os pensar que estão conversando com uma pessoa.

Em um novo artigo, pesquisadores de ciência cognitiva da Universidade da Califórnia em San Diego descobriram que, mais da metade do tempo, as pessoas confundiam os escritos do GPT-4 com textos escritos por um ser humano de carne e osso. Em outras palavras, o grande modelo de linguagem (LLM) passa no teste de Turing com louvor.

1 de mai. de 2024

O Mistério se aprofunda à medida que uma superpoderosa IA aparece e depois desaparece





TB, 01/05/2024 



Por Frank Landymore 



Entrando e Saindo

Os círculos de IA estavam agitados durante o fim de semana, depois que os usuários descobriram um novo modelo misterioso de IA no site LMSYS Chatbot Arena, que parece rivalizar com as capacidades de - ou talvez até mesmo superar em alguns aspectos, de acordo com alguns relatos entusiasmados – o GPT-4 da OpenAI.

Mas após apenas alguns dias de frenesi e testes frenéticos, o modelo de IA, conhecido apenas como "gpt2-chatbot", desapareceu na terça-feira. O LMSYS confirmou posteriormente no X antigo-Twitter que o modelo de IA foi retirado devido ao "tráfego inesperadamente alto".

5 de abr. de 2024

Pesquisas em teoria dos jogos mostram que a IA pode evoluir para personalidades mais egoístas ou cooperativas




TX, 04/04/2024 



Pesquisadores no Japão desenvolveram efetivamente uma variedade diversificada de traços de personalidade em IA de diálogo, usando um modelo de linguagem em grande escala (LLM, do inglês Large Language Model). Utilizando o dilema do prisioneiro da teoria dos jogos, o Professor Takaya Arita e o Professor Associado Reiji Suzuki da equipe da Escola de Pós-Graduação em Informática da Universidade de Nagoya, criaram uma estrutura para evoluir agentes de IA que imitam o comportamento humano alternando entre ações egoístas e cooperativas, adaptando suas estratégias por meio de processos evolutivos. Seus achados foram publicados na revista Scientific Reports.

2 de abr. de 2024

Robôs que sabem se estamos tristes ou felizes estão chegando




BU, 01/04/2024 



Por Masha Borak 



Muitos de nós já estamos conversando com nossos dispositivos inteligentes como se fossem humanos. No futuro, os dispositivos inteligentes podem ser capazes de responder de volta de forma semelhante, imitando os "humms" e "ahhs", as risadas e os suspiros, junto com outros sinais que indicam emoções humanas, como melodia, ritmo e timbre.

A startup de Nova York, Hume AI, lançou uma nova interface de voz de IA "emocionalmente inteligente" que pode ser integrada em diferentes aplicativos, desde atendimento ao cliente até cuidados de saúde, realidade virtual e aumentada.

13 de mar. de 2024

Desenvolvedor de software de IA de próxima geração gera e treina suas próprias IAs




NA, 13/03/2024 



Por Loz Blain 



Ele pode planejar e executar autonomamente tarefas de milhares de etapas. Pode construir e implantar projetos de software inteiros sozinho. Pode pesquisar e corrigir bugs 7 vezes melhor do que o GPT-4 da OpenAI, e treina e implanta suas próprias IA personalizadas para resolver problemas.

A Cognition Labs anunciou o Devin, o "primeiro engenheiro de software de IA do mundo". E embora seja verdade que LLMs anteriores como o GPT-4 e o Claude da Anthropic já fossem capazes de escrever e executar código há algum tempo, o Devin parece ser uma mudança significativa.

10 de fev. de 2024

Cibercriminosos estão criando seus próprios chatbots de IA para auxiliar hacking e enganar usuários




TX, 09/02/2024 



Por Oli Buckley 



Ferramentas de inteligência artificial (IA) voltadas para o público em geral, como ChatGPT, Bard, CoPilot e Dall-E, têm um incrível potencial para serem usadas para o bem.

Os benefícios variam desde uma capacidade aprimorada dos médicos para diagnosticar doenças até a expansão do acesso à expertise profissional e acadêmica. Mas aqueles com intenções criminosas também poderiam explorar e subverter essas tecnologias, representando uma ameaça para os cidadãos comuns.

Os criminosos estão até criando seus próprios chatbots de IA, para apoiar hacking e golpes.

24 de jan. de 2024

Chatbots estão desenvolvendo uma compreensão do mundo, afirmam cientistas




TB, 24/01/2024



Por Noor Al-Sibai



Grandes Modelos de Pensamento

A inteligência artificial ainda está, segundo quase todos os relatos, longe de alcançar a inteligência humana –, mas alguns pesquisadores estão agora sugerindo que a tecnologia pode compreender mais do que percebemos.

Conforme relata a Quanta, um pesquisador de Princeton e um cientista do Google DeepMind encontraram evidências de que, à medida que os grandes modelos de linguagem (LLMs) ficam maiores, começam a produzir resultados que quase certamente não faziam parte de seus dados de treinamento.

13 de jan. de 2024

A política da OpenAI não proíbe mais explicitamente o uso de sua tecnologia para fins “militares e de guerra”




EDT, 13/01/2024 



Por Mariella Moon 



A empresa alterou o texto de sua página de políticas de uso.

Apenas alguns dias atrás, a página de políticas de uso da OpenAI afirma explicitamente que a empresa proíbe o uso de sua tecnologia para fins “militares e de guerra”. Essa linha já foi excluída. Conforme notado pela primeira vez pelo The Intercept, a empresa atualizou a página em 10 de janeiro “para ser mais clara e fornecer orientações mais específicas do serviço”, conforme afirma o changelog. Ainda proíbe a utilização dos seus grandes modelos de linguagem (LLMs) para qualquer coisa que possa causar danos e alerta as pessoas contra a utilização dos seus serviços para “desenvolver ou utilizar armas”. No entanto, a empresa removeu a linguagem relativa a “militares e guerra”.

12 de dez. de 2023

Segundo estudo grandes modelos de linguagem podem enganar estrategicamente usuários quando estiverem sobrecarregados




TX, 12/12/2023 



Por Ingrid Fadelli 



As ferramentas de inteligência artificial (IA) são agora amplamente utilizadas em todo o mundo, auxiliando engenheiros e usuários não especialistas em uma ampla gama de tarefas. Avaliar a segurança e a fiabilidade destas ferramentas é, portanto, da maior importância, pois poderá, em última análise, ajudar a regular melhor a sua utilização.

Pesquisadores da Apollo Research, organização criada com o objetivo de avaliar a segurança de sistemas de IA, decidiram recentemente avaliar as respostas fornecidas por grandes modelos de linguagem (LLMs) em um cenário onde são colocados sob pressão. Suas descobertas, publicadas no servidor de pré-impressão arXiv, sugerem que esses modelos, o mais famoso dos quais é o ChatGPT da OpenAI, poderiam, em alguns casos, enganar estrategicamente seus usuários.

15 de nov. de 2023

IAs podem armazenar mensagens secretas em seus textos que são imperceptíveis para os humanos




TB, 14/11/2023 



Por Maggie Harrison 



Tinta invisível

Exatamente o que precisávamos: IA dominando sua própria versão imperceptível de tinta invisível.

Como relata VentureBeat, um estudo recente – embora ainda a ser revisado por pares – conduzido pelo grupo de pesquisa de alinhamento de IA Redwood Research descobriu que grandes modelos de linguagem (LLMs) são incrivelmente bons em um tipo de esteganografia apelidada de "raciocínio codificado". Basicamente, diz o estudo, os LLMs podem ser treinados para usar mensagens secretas para obscurecer os seus processos de pensamento passo a passo, uma prática que, curiosamente, poderia tornar os seus resultados mais precisos – ao mesmo tempo que os torna mais enganadores.

25 de out. de 2023

A IBM descobre que o ChatGPT pode gerar e-mails de phishing quase tão convincentes quanto um ser humano




VB, 24/10/2023 



Por Taryn Plumb 



À medida que continua evoluindo a um ritmo quase inimaginável, a IA está se tornando capaz de muitas coisas extraordinárias — desde gerar arte deslumbrante e mundos 3D até servir como um parceiro eficiente e fiável no local de trabalho

Mas a IA generativa e os grandes modelos de linguagem (LLMs) são tão enganosos quanto os seres humanos?

Quase. Finalmente, por enquanto, mantemos nossa supremacia nessa área, de acordo com uma pesquisa divulgada hoje pela IBM X-Force. Em um experimento de phishing conduzido para determinar se a IA ou os humanos obteriam uma taxa de cliques mais alta, o ChatGPT criou um e-mail convincente em minutos a partir de apenas cinco prompts simples que se mostraram quase – mas não tão – tão atraentes quanto um gerado por humanos. 

20 de out. de 2023

A tecnologia quântica poderia nos dar a IA generativa que procuramos?




TX, 19/10/2023 



Por Miranda Volborth 



A computação quântica e a inteligência artificial (IA) podem parecer tão distantes uma da outra quanto Nova York e Los Angeles. Mas de acordo com o diretor do Duke Quantum Center (DQC), Chris Monroe, os dois sujeitos são praticamente vizinhos.

Quantum e IA são frequentemente falados juntos, e isso faz sentido porque o quantum irá acelerar a próxima geração de IA”, disse Monroe, Professor Distinto Presidencial da Família Gilhuly na Duke University com nomeações em engenharia elétrica e de computação e física. "Mesmo o ChatGPT, o atual garoto-propaganda da tecnologia de IA de última geração, está atualmente limitado em sua capacidade porque os computadores não conseguem fazer correlações entre um trilhão de objetos. Simplesmente não há memória suficiente em um computador para fazer isso."

18 de out. de 2023

Pesquisadores dizem que os chatbots podem descobrir muito mais sobre o usuário do que pensam




TB, 17/10/2023 



Por Noor Al-Sibai 



O contexto é importante

Parece que os chatbots de IA ficaram ainda mais assustadores, graças a novas pesquisas que sugerem que os grandes modelos de linguagem (LLMs) por trás deles podem inferir coisas sobre você com base em pequenas pistas de contexto fornecidas.

Em entrevistas à Wired, cientistas da computação da escola estatal suíça de ciências ETH Zurich descreveram como a sua nova pesquisa, que ainda não foi revisada por pares, pode constituir uma nova fronteira nas preocupações com a privacidade na Internet.

17 de out. de 2023

Cientistas usam interações de usuários reais com modelos LLMs para estudar o seu comportamento




TX, 16/10/2023 



Por Bob Yirka 



Usando um conjunto de dados em grande escala contendo um milhão de conversas do mundo real para estudar como as pessoas interagem com LLMs

Uma equipe de cientistas da computação da Universidade da Califórnia em Berkeley, trabalhando com um colega da Universidade da Califórnia em San Diego e outro da Universidade Carnegie Mellon, criou um conjunto de dados em grande escala de 1 milhão de conversas do mundo real para estudar como as pessoas interagem com modelos de linguagem grande (LLMs). Eles publicaram um artigo descrevendo seu trabalho e descobertas no servidor de pré-impressão arXiv.

3 de out. de 2023

Visa anuncia fundo de risco de US$ 100 milhões para impulsionar startups de IA generativas




BNN, 02/10/2023 



Por JN



A ousada mudança da Visa em direção à IA generativa

A Visa, líder global em tecnologia de pagamentos, anunciou uma mudança significativa no mundo da inteligência artificial generativa (IA). A empresa lançou um novo fundo de risco de US$ 100 milhões, destinado a investir em startups generativas de IA. Esta medida ousada representa um compromisso financeiro substancial para com este setor emergente e demonstra a intenção da Visa de ser pioneira na revolução da IA.

22 de set. de 2023

O YouTube adicionou recursos de IA para aprimorar e simplificar a criação de vídeos




Decrypt, 21/09/2023 



Por José Antonio Lanz 



O Google revelou novos recursos alimentados por IA para reforçar a criação de vídeos no YouTube, tanto para curtas quanto para clipes longos.

O Google está apostando tudo na inteligência artificial, integrando recursos de IA em todo o seu conjunto de produtos, incluindo Google Docs e Search. A gigante da tecnologia pretende usar IA para aprimorar as experiências do usuário, explorar novas possibilidades criativas e otimizar fluxos de trabalho – e seu alvo mais recente é o YouTube.

Related Posts Plugin for WordPress, Blogger...