Mostrando postagens classificadas por data para a consulta LLM. Ordenar por relevância Mostrar todas as postagens
Mostrando postagens classificadas por data para a consulta LLM. Ordenar por relevância Mostrar todas as postagens

9 de nov. de 2024

Grupo de IA ‘Unrestricted’ Nous Research Lança Primeiro Chatbot





VB, 07/11/2024 



Por Carl Frazen 



Nous Research, o grupo de pesquisa em IA dedicado a criar modelos de IA personalizados e sem restrições como uma alternativa a empresas mais corporativas como OpenAI, Anthropic, Google, Meta e outras, já havia lançado vários modelos de código aberto da sua família Hermes, além de novos métodos mais eficientes de treinamento de IA.

Mas, até hoje, se pesquisadores e usuários quisessem realmente usar esses modelos, precisavam baixar e rodar o código em suas próprias máquinas — uma tarefa demorada, complexa e potencialmente cara — ou utilizá-los em sites parceiros.

9 de out. de 2024

ChatGPT pode reconhecer ‘identidades faciais’ e estimar idade: pesquisa





BU, 08/10/2024 



Por Joel R. McConvey 



O grande modelo de linguagem (LLM) ChatGPT "reconhece identidades faciais e diferencia entre duas imagens faciais com considerável precisão", de acordo com um estudo recém-divulgado que explora o potencial de aplicar LLMs a “tarefas biométricas”.

O artigo, “ChatGPT e Biometria: uma Avaliação das Capacidades de Reconhecimento Facial, Detecção de Gênero e Estimativa de Idade” cumpre o que o título sugere. “Embora as aplicações de LLMs, como o ChatGPT, tenham sido estudadas para diferentes tarefas, suas capacidades para biometria não foram exploradas”, afirma o texto.

18 de mai. de 2024

A maioria dos humanos é enganada pelo GPT-4 no teste de Turing, descobrem cientistas




TB, 17/05/2024 



Por Noor Al-Sibai



Aprovação/Reprovação

O GPT-4 da OpenAI é tão realista que aparentemente pode enganar mais de 50 por cento dos sujeitos de teste humanos, fazendo-os pensar que estão conversando com uma pessoa.

Em um novo artigo, pesquisadores de ciência cognitiva da Universidade da Califórnia em San Diego descobriram que, mais da metade do tempo, as pessoas confundiam os escritos do GPT-4 com textos escritos por um ser humano de carne e osso. Em outras palavras, o grande modelo de linguagem (LLM) passa no teste de Turing com louvor.

6 de mai. de 2024

Sam Altman diz que a IA será como uma pessoa super inteligente que "sabe absolutamente tudo" sobre sua vida




TB, 06/05/2024 



Por Noor Al-Sibai 



Pergunta rápida: por que alguém iria querer isso?

Sim, chef

A IA do futuro não será apenas um chatbot – será, segundo o CEO da OpenAI, Sam Altman, equipada com informações incrivelmente detalhadas sobre seus usuários.

Em uma entrevista à MIT Technology Review, Altman sugeriu que a IA deveria trabalhar para seus usuários mais do que a assistente executiva humana mais trabalhadora, e saberia absolutamente tudo sobre quem estiver usando.

1 de mai. de 2024

O Mistério se aprofunda à medida que uma superpoderosa IA aparece e depois desaparece





TB, 01/05/2024 



Por Frank Landymore 



Entrando e Saindo

Os círculos de IA estavam agitados durante o fim de semana, depois que os usuários descobriram um novo modelo misterioso de IA no site LMSYS Chatbot Arena, que parece rivalizar com as capacidades de - ou talvez até mesmo superar em alguns aspectos, de acordo com alguns relatos entusiasmados – o GPT-4 da OpenAI.

Mas após apenas alguns dias de frenesi e testes frenéticos, o modelo de IA, conhecido apenas como "gpt2-chatbot", desapareceu na terça-feira. O LMSYS confirmou posteriormente no X antigo-Twitter que o modelo de IA foi retirado devido ao "tráfego inesperadamente alto".

5 de abr. de 2024

Pesquisas em teoria dos jogos mostram que a IA pode evoluir para personalidades mais egoístas ou cooperativas




TX, 04/04/2024 



Pesquisadores no Japão desenvolveram efetivamente uma variedade diversificada de traços de personalidade em IA de diálogo, usando um modelo de linguagem em grande escala (LLM, do inglês Large Language Model). Utilizando o dilema do prisioneiro da teoria dos jogos, o Professor Takaya Arita e o Professor Associado Reiji Suzuki da equipe da Escola de Pós-Graduação em Informática da Universidade de Nagoya, criaram uma estrutura para evoluir agentes de IA que imitam o comportamento humano alternando entre ações egoístas e cooperativas, adaptando suas estratégias por meio de processos evolutivos. Seus achados foram publicados na revista Scientific Reports.

2 de abr. de 2024

Empresas de IA ficando sem dados de treinamento após esgotar todo o conteúdo da internet




TB, 01/04/2024



Por Noor Al-Sibai 



Escassez em Massa

À medida que as empresas de IA continuam construindo modelos maiores e melhores, elas estão enfrentando um problema compartilhado: em breve, a internet não será grande o suficiente para fornecer todos os dados de que precisam.

Segundo o Wall Street Journal, algumas empresas estão buscando fontes alternativas de dados de treinamento agora que a internet está se tornando pequena demais, considerando opções como transcrições de vídeos disponíveis publicamente e até mesmo "dados sintéticos" gerados por IA.

26 de fev. de 2024

Dos deepfakes aos candidatos digitais: o jogo político da IA




VB, 25/02/2024 



Por Gary Grossman 



A inteligência artificial está sendo cada vez mais usada para representar, ou deturpar, as opiniões de figuras históricas e contemporâneas. Um exemplo recente é quando a voz do Presidente Biden foi clonada e usada em uma ligação automática para os eleitores de New Hampshire. Indo além, dado o avanço das capacidades da IA, o que logo poderá ser possível é a "candidatura" simbólica de uma persona criada pela IA. Isso pode parecer absurdo, mas a tecnologia para criar tal ator político de IA já existe.

Há muitos exemplos que apontam para essa possibilidade. Tecnologias que permitem experiências de aprendizado interativo e imersivo trazem figuras históricas e conceitos à vida. Quando usadas de forma responsável, estas não só podem desmistificar o passado, mas inspirar uma cidadania mais informada e engajada.

10 de fev. de 2024

Cibercriminosos estão criando seus próprios chatbots de IA para auxiliar hacking e enganar usuários




TX, 09/02/2024 



Por Oli Buckley 



Ferramentas de inteligência artificial (IA) voltadas para o público em geral, como ChatGPT, Bard, CoPilot e Dall-E, têm um incrível potencial para serem usadas para o bem.

Os benefícios variam desde uma capacidade aprimorada dos médicos para diagnosticar doenças até a expansão do acesso à expertise profissional e acadêmica. Mas aqueles com intenções criminosas também poderiam explorar e subverter essas tecnologias, representando uma ameaça para os cidadãos comuns.

Os criminosos estão até criando seus próprios chatbots de IA, para apoiar hacking e golpes.

24 de jan. de 2024

Chatbots estão desenvolvendo uma compreensão do mundo, afirmam cientistas




TB, 24/01/2024



Por Noor Al-Sibai



Grandes Modelos de Pensamento

A inteligência artificial ainda está, segundo quase todos os relatos, longe de alcançar a inteligência humana –, mas alguns pesquisadores estão agora sugerindo que a tecnologia pode compreender mais do que percebemos.

Conforme relata a Quanta, um pesquisador de Princeton e um cientista do Google DeepMind encontraram evidências de que, à medida que os grandes modelos de linguagem (LLMs) ficam maiores, começam a produzir resultados que quase certamente não faziam parte de seus dados de treinamento.

19 de dez. de 2023

A Microsoft está colocando IA generativa nos carros




TB, 19/12/2023 



Por Noor Al-Sibai 



Conversa sobre carro

Lembra daqueles monitores GPS falantes do início a meados dos anos 2000? Eles estão de volta com força total e em breve serão habilitados para IA, embora não esteja claro quem pediu isso.

Num comunicado de imprensa, a empresa de GPS TomTom anunciou que está se unindo à Microsoft para equipar os carros com um assistente de IA generativo chamado “Tommy” que, por algum motivo, permitirá que as pessoas conversem com seus carros.

12 de dez. de 2023

Segundo estudo grandes modelos de linguagem podem enganar estrategicamente usuários quando estiverem sobrecarregados




TX, 12/12/2023 



Por Ingrid Fadelli 



As ferramentas de inteligência artificial (IA) são agora amplamente utilizadas em todo o mundo, auxiliando engenheiros e usuários não especialistas em uma ampla gama de tarefas. Avaliar a segurança e a fiabilidade destas ferramentas é, portanto, da maior importância, pois poderá, em última análise, ajudar a regular melhor a sua utilização.

Pesquisadores da Apollo Research, organização criada com o objetivo de avaliar a segurança de sistemas de IA, decidiram recentemente avaliar as respostas fornecidas por grandes modelos de linguagem (LLMs) em um cenário onde são colocados sob pressão. Suas descobertas, publicadas no servidor de pré-impressão arXiv, sugerem que esses modelos, o mais famoso dos quais é o ChatGPT da OpenAI, poderiam, em alguns casos, enganar estrategicamente seus usuários.

15 de nov. de 2023

IAs podem armazenar mensagens secretas em seus textos que são imperceptíveis para os humanos




TB, 14/11/2023 



Por Maggie Harrison 



Tinta invisível

Exatamente o que precisávamos: IA dominando sua própria versão imperceptível de tinta invisível.

Como relata VentureBeat, um estudo recente – embora ainda a ser revisado por pares – conduzido pelo grupo de pesquisa de alinhamento de IA Redwood Research descobriu que grandes modelos de linguagem (LLMs) são incrivelmente bons em um tipo de esteganografia apelidada de "raciocínio codificado". Basicamente, diz o estudo, os LLMs podem ser treinados para usar mensagens secretas para obscurecer os seus processos de pensamento passo a passo, uma prática que, curiosamente, poderia tornar os seus resultados mais precisos – ao mesmo tempo que os torna mais enganadores.

20 de out. de 2023

A tecnologia quântica poderia nos dar a IA generativa que procuramos?




TX, 19/10/2023 



Por Miranda Volborth 



A computação quântica e a inteligência artificial (IA) podem parecer tão distantes uma da outra quanto Nova York e Los Angeles. Mas de acordo com o diretor do Duke Quantum Center (DQC), Chris Monroe, os dois sujeitos são praticamente vizinhos.

Quantum e IA são frequentemente falados juntos, e isso faz sentido porque o quantum irá acelerar a próxima geração de IA”, disse Monroe, Professor Distinto Presidencial da Família Gilhuly na Duke University com nomeações em engenharia elétrica e de computação e física. "Mesmo o ChatGPT, o atual garoto-propaganda da tecnologia de IA de última geração, está atualmente limitado em sua capacidade porque os computadores não conseguem fazer correlações entre um trilhão de objetos. Simplesmente não há memória suficiente em um computador para fazer isso."

18 de out. de 2023

Pesquisadores dizem que os chatbots podem descobrir muito mais sobre o usuário do que pensam




TB, 17/10/2023 



Por Noor Al-Sibai 



O contexto é importante

Parece que os chatbots de IA ficaram ainda mais assustadores, graças a novas pesquisas que sugerem que os grandes modelos de linguagem (LLMs) por trás deles podem inferir coisas sobre você com base em pequenas pistas de contexto fornecidas.

Em entrevistas à Wired, cientistas da computação da escola estatal suíça de ciências ETH Zurich descreveram como a sua nova pesquisa, que ainda não foi revisada por pares, pode constituir uma nova fronteira nas preocupações com a privacidade na Internet.

17 de out. de 2023

Cientistas usam interações de usuários reais com modelos LLMs para estudar o seu comportamento




TX, 16/10/2023 



Por Bob Yirka 



Usando um conjunto de dados em grande escala contendo um milhão de conversas do mundo real para estudar como as pessoas interagem com LLMs

Uma equipe de cientistas da computação da Universidade da Califórnia em Berkeley, trabalhando com um colega da Universidade da Califórnia em San Diego e outro da Universidade Carnegie Mellon, criou um conjunto de dados em grande escala de 1 milhão de conversas do mundo real para estudar como as pessoas interagem com modelos de linguagem grande (LLMs). Eles publicaram um artigo descrevendo seu trabalho e descobertas no servidor de pré-impressão arXiv.

25 de set. de 2023

A Amazon investe US$ 4 bilhões em startup de IA Anthropic




CTPH, 25/09/2023 



Por Savannah Fortis 



A Amazon concordou em investir US$ 4 bilhões na startup de inteligência artificial Antrhopic para desenvolver modelos básicos de alto desempenho.

A Amazon e a startup de inteligência artificial (IA) Anthropic anunciaram um novo acordo de investimento para auxiliar na pesquisa e desenvolvimento de novos modelos de fundação de alto desempenho. 

Em uma postagem no X (antigo Twitter), a Anthropic revelou que a Amazon investirá US$ 4 bilhões em seu trabalho e lhe dará acesso aos chips Amazon Web Services Trainium e Inferentia.

12 de set. de 2023

Aparentemente a Meta está desenvolvendo uma nova IA poderosa e secreta




TB, 11/09/2023 



Por Maggie Harrison 



Segunda onda

À medida que a OpenAI e o Google avançam na corrida contínua da IA ​​​​no Vale do Silício, a Meta – sim, a empresa que se renomeou há apenas três anos para apostar tudo na mania tecnológica anterior do metaverso – parece mais determinada do que nunca em alcançá-la.

De acordo com novas reportagens do The Wall Street Journal, a Meta está desenvolvendo secretamente um novo e poderoso modelo de IA projetado para competir com o GPT-4 da OpenAI, a iteração mais avançada do modelo de linguagem grande (LLM) da empresa rival de IA até o momento.

Como os agentes de IA já estão simulando a civilização humana




VB, 11/09/2023 



Por Ben Dickson 



Modelos de grande linguagem (LLM) de inteligência artificial (IA), como o sucesso GPT-3, 3.5 e 4 da OpenAI, codificam uma riqueza de informações sobre como vivemos, nos comunicamos e nos comportamos, e os pesquisadores estão constantemente encontrando novas maneiras de colocar isso como conhecimento para usar.

Um estudo recente conduzido por pesquisadores da Universidade de Stanford demonstrou que, com o design correto, os LLMs podem ser aproveitados para simular o comportamento humano de uma maneira dinâmica e convincentemente realista.

11 de set. de 2023

O forte preconceito político de esquerda do ChatGPT é desmascarado por novo estudo




SCTD, 11/09/2023 



Um estudo de pesquisa identifica um viés de esquerda significativo na plataforma de IA ChatGPT, inclinada para os democratas dos EUA, o Partido Trabalhista do Reino Unido e o presidente do Brasil, Lula da Silva.

A plataforma de inteligência artificial ChatGPT mostra um viés de esquerda significativo e sistêmico, de acordo com um novo estudo da Universidade de East Anglia (UEA).

A equipe de pesquisadores do Reino Unido e do Brasil desenvolveu um novo método rigoroso para verificar preconceitos políticos.

Related Posts Plugin for WordPress, Blogger...