Mostrando postagens classificadas por relevância para a consulta senciente. Ordenar por data Mostrar todas as postagens
Mostrando postagens classificadas por relevância para a consulta senciente. Ordenar por data Mostrar todas as postagens

13 de jun. de 2022

Engenheiro do Google é afastado após alegar que o chat bot de IA LaMDA tornou-se 'consciente'

Blake Lemoine ex-veterano do exército e engenheiro do Google



NYP, 12/06/2022 



Por Sam Raskin 



Um engenheiro do Google se assustou com um chatbot de inteligência artificial da empresa e alegou que se tornou “consciente”, rotulando-o de “garoto doce”, de acordo com um relatório.

Blake Lemoine, que trabalha na organização Responsible AI do Google, disse ao  Washington Post  que começou a conversar com a interface LaMDA – Language Model for Dialogue Applications – no outono de 2021 como parte de seu trabalho.

23 de jul. de 2022

Google: engenheiro que foi demitido acredita que seu chatbot de IA pode ter alma, mas diz que não está interessado em convencer o público sobre isso

Blake Lemoine



YF, 23/07/2022 



Por Urooba Jamal 



Quando Blake Lemoine trabalhou no Google como engenheiro, ele foi encarregado de testar se um robô que a empresa estava desenvolvendo exibia algum viés.

Lemoine não percebeu que seu trabalho com o departamento de IA Responsável da empresa – uma divisão dentro do Google Research que lida com coisas como acessibilidade, uso da IA ​​para o bem social e ética da IA ​​– o levaria pelo caminho que levou.

Ele foi notícia recentemente por sua crença controversa de que o chatbot de IA do Google era senciente. O bot era conhecido como LaMDA, abreviação de Language Model for Dialogue Applications, e Lemoine foi encarregado de testá-lo.

8 de abr. de 2023

O que é Modelo de Linguagem Grande (LLM)?



TechTarget



Por Sean Michael Kerner



Um grande modelo de linguagem (LLM) é um tipo de algoritmo de inteligência artificial (IA) que usa técnicas de aprendizado profundo e conjuntos de dados massivamente grandes para entender, resumir, gerar e prever novos conteúdos. O termo IA generativa também está intimamente ligado aos LLMs, que são, na verdade, um tipo de IA generativa que foi arquitetada especificamente para ajudar a gerar conteúdo baseado em texto.

Ao longo de milênios, os humanos desenvolveram línguas faladas para se comunicar. A linguagem está no centro de todas as formas de comunicação humana e tecnológica; fornece as palavras, a semântica e a gramática necessárias para transmitir ideias e conceitos. No mundo da IA, um modelo de linguagem serve a um propósito semelhante, fornecendo uma base para comunicar e gerar novos conceitos.

9 de mar. de 2023

Os engenheiros do Google construíram uma IA semelhante ao ChatGPT anos atrás, mas os executivos a barraram




IE, 09/03/2023 



Por Ameya Paleja



Os executivos do Google barraram o teste público do chatbot de IA, citando preocupações de que ele não atendia aos padrões da empresa.

Anos atrás, Daniel De Freitas e Noam Shazeer, engenheiros do Google, desenvolveram um chatbot conversacional semelhante ao ChatGPT que podia falar sobre filosofia e programas de TV e fazer piadas.

26 de dez. de 2022

Executivos do Google declaram "alerta vermelho" sobre novo chatbot revolucionário





ZH, 25/12/2022 



Por Tyler Durden



Três semanas atrás, um bot de bate-papo (chatbot) experimental chamado ChatGPT foi lançado no mundo. Quando são feitas perguntas, ele fornece respostas simples, específicas e relevantes – em vez de fornecer uma lista de links da Internet. Ele também pode gerar ideias por conta própria – incluindo planos de negócios, sugestões de presentes de Natal, ideias de férias e conselhos sobre como ajustar modelos de rede neural usando scripts python.

Alguns até acham que pode suplantar o negócio de busca do Google, relata o NY Times.

18 de abr. de 2023

CEO do Google DeepMind diz que a IA pode se tornar autoconsciente




TB, 17/04/2023 



Por Noor Al-Sibai 



Tão autoconsciente

Agora, aparentemente, podemos adicionar o CEO da DeepMind, de propriedade do Google, à lista de pesquisadores de aprendizado de máquina que acham que a inteligência artificial pode vir a ganhar autoconsciência.

Em uma entrevista bombástica para o 60 Minutes da CBS, o CEO da DeepMind, Demis Hassabis, admitiu que a IA pode estar indo nessa direção.

6 de fev. de 2023

O profundo perigo da IA ​​conversacional – Programação Preditiva





VB, 04/02/2023 



Por Louis Rosenberg 



Quando os pesquisadores contemplam os riscos que a IA representa para a civilização humana, frequentemente fazemos referência ao problema de controle. Isso se refere à possibilidade de que uma superinteligência artificial possa surgir e seja tão mais inteligente que os humanos que rapidamente perdemos o controle sobre ela. O medo é que uma IA senciente com um intelecto sobre-humano possa perseguir objetivos e interesses conflitantes com os nossos, tornando-se um rival perigoso para a humanidade.

18 de out. de 2023

A IA está mais perto do que nunca de passar no teste de Turing para “inteligência”. O que acontece quando isso acontecer?




TX, 17/10/2023 



Por Simon Goldstein 



Em 1950, o cientista da computação britânico Alan Turing propôs um método experimental para responder à pergunta: as máquinas podem pensar? Ele sugeriu que se um ser humano não conseguisse dizer se estava falando com uma máquina artificialmente inteligente (IA) ou com outro ser humano após cinco minutos de questionamento, isso demonstraria que a IA tem inteligência semelhante à humana.

Embora os sistemas de IA tenham permanecido longe de passar no teste de Turing durante a sua vida, ele especulou que "[...] dentro de cerca de 50 anos será possível programar computadores [...] para fazê-los jogar o jogo da imitação tão bem que um interrogador médio irá não terá mais de 70% de chance de fazer a identificação correta após cinco minutos de interrogatório."

Related Posts Plugin for WordPress, Blogger...