conecte-se conosco


Tecnologia

Inteligência artificial está ‘ganhando vida’? Especialistas respondem

Publicados

em

Cientistas discutem possibilidade de inteligência artificial 'ganhar vida'
Unsplash/Franck V

Cientistas discutem possibilidade de inteligência artificial ‘ganhar vida’

O LaMDA atraiu quase todos os holofotes para si. Em junho de 2022, um engenheiro do Google alegou que o sistema de inteligência artificial (IA) da companhia era senciente. O caso, obviamente, chamou a atenção – e despertou alguns temores: afinal, as máquinas, enfim, estão “ganhando vida”? Haveria um futuro apocalíptico? E o mais importante: isso é realmente possível?

Pois é, muitas discussões surgiram depois que o engenheiro Blake Lemoine revelou o documento “Is LaMDA Sentient? – an Interview” (“LaMDA é senciente? – uma entrevista”, em tradução livre). Através da publicação, ele ressaltou que o sistema “dá suas opiniões sobre o que o diferencia dos sistemas anteriores”. Além disso, o engenheiro relatou que a inteligência artificial demonstrou o seu desejo de ser tratado como uma pessoa, emoções, sentimentos próprios e até cometeu um ato falho (!).

Confesso que, quando li a entrevista feita pelo engenheiro com o LaMDA (Language Model for Dialogue Applications), cheguei a me assustar em primeiro momento, já pensando em vários livros e filmes sobre o tema. Mas fiquei me perguntando: a inteligência artificial está ganhando vida própria? Como isso poderia acontecer? É possível especular as consequências, em um suposto caso afirmativo?

Eu conversei com professores de três universidades do Rio de Janeiro (RJ) para tirar essas dúvidas. E você pode conferir as respostas nas linhas a seguir.

“Quanto a ganhar ‘vida própria’, vamos com calma!”

Alfredo Boente é coordenador dos cursos de Engenharia da Computação e Ciência da Computação na Universidade Veiga de Almeida (UVA) do campus Tijuca. O professor também é doutor em Engenharia de Produção, com ênfase em tomada de decisão com IA (Lógica Fuzzi), pela Coppe/UFRJ. 

Quando questionado se a inteligência artificial está ganhando “vida própria”, o professor explicou o seguinte ao Tecnoblog:

“Essa pergunta poderia até gerar medo em algumas pessoas. Os sistemas que são providos de inteligência computacional e que têm a capacidade de tomar decisões são tecnicamente denominados de ‘Sistemas Especialistas’. Ter capacidade de tomada de decisão nos reporta a um limite, o que chamamos de limite computacional. Quanto a ganhar ‘vida própria’, vamos com calma!”, disse.

“Os sistemas especialistas são munidos de métodos e técnicas de IA, compostas por algoritmos expertos, conjunto de regras, mecanismo de inferência, e apresentam ‘capacidade’ de simular o raciocínio humano. O que chamamos de simular o ‘raciocínio humano’ limita-se à capacidade de aprendizagem por meio de algoritmos que faz com que a máquina possa ‘pensar’ em melhores alternativas para o processo de tomada de decisão de âmbito geral (nas empresas, indústrias etc)”, acrescentou.

Mas e se tudo isso, de fato, acontecer, quais seriam as consequências?

“Essa pergunta fica difícil de responder, pois o que chamamos de caso afirmativo seria no caso de ganhar ‘vida própria’. A inteligência artificial está inserida no nosso cotidiano, isto é fato. Na indústria 4.0, temos diversas aplicações em que ela se encontra inserida, como, por exemplo, internet das coisas, big data, cloud computing etc. O futuro não tão distante da inteligência artificial está no que hoje chamamos de metaverso. Mas, isso é assunto para outro momento”, respondeu.

Mas o que está por trás da inteligência artificial?

Também conversei com Augusto Baffa, professor do Departamento de Informática do Centro Técnico Científico da PUC-Rio. Ele explicou como é o funcionamento por trás do que chamamos de inteligência artificial.

“Primeiramente, precisamos entender como a Inteligência Artificial (IA) realiza suas tarefas. A IA é composta por uma série de técnicas que podem ser combinadas para resolver problemas específicos. Houve grandes avanços de reconhecimento de padrões, geração e compreensão de imagens e de linguagem natural”, afirmou.

Isso não significa que a IA compreende (como um humano) o que realmente está fazendo. A IA utiliza uma série de procedimentos estatísticos e matemáticos para justamente levar a entrada (pergunta) à saída (resposta) e, neste caminho, simplesmente processa os dados e retorna os resultados.

Veja Também:  Novo app de Bolsonaro manda dados dos usuários para assessor de Carlos

Claro que seu objetivo é fornecer respostas de alta qualidade, mas isso não significa que está de fato tendo algum tipo de consciência. 

Em outras palavras: a IA não compreende os problemas como um humano. Na verdade, esses sistemas utilizam uma série de procedimentos para processar dados solicitados pelos usuários. 

Mas como essas respostas são criadas? Ao Tecnoblog, o professor afirmou o seguinte:

“Para entendermos como os algoritmos conseguem criar uma resposta inteligente, é preciso conhecer o procedimento de aprendizado. Em geral, nós alimentamos estes algoritmos com definições quanto aos conceitos e emoções envolvidas naquilo que queremos ‘reproduzir’. Significa dizer que a IA pode ter respostas próximas ao que chamamos de ‘raciocinar’ como uma pessoa, mas, na verdade, ela estará reproduzindo mecanicamente sua forma de pensar, de acordo com o que foi ensinado. Quanto mais informações a IA é capaz de adquirir e processar, mais complexas podem ser suas respostas, porém ela apenas estará seguindo seu roteiro, adquirido durante o aprendizado. Podemos simular a criatividade, através de seleções aleatórias de respostas dentro de um mesmo contexto e até mesmo simular emoções através de índices emocionais nos quais a máquina poderá se basear para selecionar suas respostas, mas, ainda assim, não haverá uma consciência de si mesma ou do que ela está fazendo. Claro que poderemos perguntar coisas com ‘você está viva? O que pensa sobre você?’ e ela poderá criar uma resposta coerente baseada em seu conhecimento adquirido, mas será apenas uma reprodução de algo que foi incluído em sua programação”, explicou.

Então a IA da atualidade não é senciente, certo?

“A grande questão é: a nossa IA atual é senciente? Ainda não, a menos que nós a façamos ‘simular’ ou ‘imitar’ o que isso significa. A IA pode se tornar senciente um dia? Acredito que, se isso um dia for realidade, ainda estamos longe dela”, disse.

Dos livros e filmes para a realidade

Carlos Eduardo Pedreira é professor do Programa de Engenharia de Sistemas e Computação da COPPE/UFRJ e chefe da linha de Inteligência Artificial do PESC. De início, ele destacou alguns pontos do episódio envolvendo o Blake Lemoine:

“Recentemente, a divulgação de que um engenheiro da Google conclui que um sistema de Inteligência Artificial (IA), chamado LaMDA, teria se mostrado senciente e demonstrado emoções, opiniões e sentimentos próprios (inclusive, defendendo que deveria ser considerado como uma pessoa) vem provocando grande impacto, movimentando animadas discussões sobre o tema em várias esferas”.

Mais adiante, o professor observou como a IA é retratada tanto na literatura quanto no cinema:

“A fascinante (e apavorante) ideia de que um sistema de IA possa se aproximar do comportamento humano (e mesmo fugir a seu controle) vem, há muito, encontrando espaço em nosso imaginário através da literatura e do cinema. Por exemplo, o interessantíssimo livro ‘Origem’ de Dan Brown é uma oportunidade para viajar por uma Espanha onde, em meio a obras de artes plásticas e símbolos enigmáticos, um sistema de IA parece fugir ao controle de seu criador, ganhando autonomia e vontade própria. Já no belíssimo, e lúdico, filme ‘Ela’ de Spike Jonze, um escritor solitário se apaixona pela voz de um sistema de IA com o qual termina por ter uma intensa relação amorosa”.

Mas a ficção, devemos sempre reforçar, não reflete necessariamente a realidade:

“Sistemas de IA são modelos matemáticos que aprendem (isso é, são ajustados) a partir de dados. Com a enorme capacidade de processamento computacional que temos atualmente, é possível construir sistemas poderosíssimos, impensáveis há uns anos. Com respeito ao LaMDA, é muito difícil de se afirmar que os dados (e modelos) utilizados por seus desenvolvedores não tenham sido os reais responsáveis por essas reações tidas como ‘próprias’. Muito difícil saber se, conscientemente ou não, não tenham sido seus próprios projetistas os que direcionaram as respostas da máquina no sentido de induzir uma sensação de autoconsciência (sem que essa efetivamente exista). A verdade é que indiscutivelmente essa entrevista da criatura, realizada por seus criadores, gerou um grande impacto midiático”.

Veja Também:  Shein tem política de frete diferente entre usuários de iOS e Android

Mas qual é o verdadeiro propósito desses sistemas? O professor deu sua explicação ao Tecnoblog:

“Por outro lado, é muito importante lembrar que o objetivo central de qualquer sistema de IA é ser capaz de extrapolar para além dos dados a ele apresentados, e um excelente exemplo disso é o sistema Alphago que conseguiu efetivamente aprender um complexo jogo oriental a ponto de vencer seu campeão mundial. Mas a distância entre os indiscutíveis sucessos de aplicações de IA e se poder dizer que um sistema é senciente, é muito grande. Me parece que a entrevista dos pesquisadores do Google com o LaMDA é uma evidência fraca para afirmar que a máquina tem autoconsciência. E claro que do ponto de vista científico, é sempre prudente ter uma boa dose de ceticismo. Apesar de muito ter sido feito nos últimos anos, ainda temos um enorme espaço para aplicações de IA em setores que geram um forte impacto em nosso bem-estar, como por exemplo saúde e educação. E é aí que deveríamos concentrar a atenção, esforço e investimentos”.

Mas e amanhã?

“Será possível um dia construir um sistema de IA que tenha vontade própria? Que sinta e se emocione? Aqui não vou me arriscar. Quase todos os que no passado afirmaram ‘isso é impossível’ com respeito a desenvolvimentos científicos, perderam a aposta”.

O que diz o Google?

O Tecnoblog também entrou em contato com o Google. Confira a resposta do porta-voz Brian Gabriel na íntegra:

“É importante destacar que os princípios da Inteligência Artificial do Google são integrados ao desenvolvimento da IA, e o LaMDA não é uma exceção. Embora outras organizações tenham desenvolvido e já lançado modelos de linguagem semelhantes, com a LaMDA, estamos adotando um enfoque cuidadoso e ponderado para levar em consideração as preocupações válidas sobre imparcialidade e veracidade.

O LaMDA passou por 11 diferentes revisões a partir dos nossos Princípios de IA, junto a pesquisas e testes rigorosos, baseados em medidas fundamentais de qualidade, segurança e na capacidade do sistema em produzir comunicações fundamentadas em fatos. Um trabalho de pesquisa divulgado no início deste ano detalha o trabalho que está sendo feito para o desenvolvimento responsável do LaMDA.

Claro que, na ampla comunidade de IA, alguns consideram que a longo prazo pode haver a possibilidade de uma IA senciente. Entretanto, não faz sentido fazer isso antropomorfizando os modelos de conversação que existem hoje, que não são sencientes.

Os sistemas atuais imitam os tipos de troca encontrados em milhões de frases e podem improvisar quando se deparam com qualquer tópico fora do comum. Por exemplo, se você perguntar como é ser um dinossauro de sorvete, os algoritmos podem gerar um texto sobre derreter e rugir – e assim por diante.

O LaMDA tende a acompanhar os comandos e as perguntas principais, seguindo o padrão definido pelo usuário. Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com os nossos Princípios de IA e o informou que as evidências não respaldam suas alegações.

Centenas de pesquisadores e engenheiros conversaram com o LaMDA e não temos conhecimento de mais ninguém fazendo as afirmações, abrangentes ou antropomorfizando o LaMDA, da maneira que Blake fez”.

Fonte: IG TECNOLOGIA

Comentários Facebook
Propaganda

Tecnologia

YouTube proíbe vídeos que neguem ou banalizem facada em Bolsonaro

Publicados

em

Jair Bolsonaro foi esfaqueado em 2018
Reprodução/Twitter

Jair Bolsonaro foi esfaqueado em 2018

O YouTube afirmou nesta quarta-feira (10) que alterou sua política de combate ao discurso de ódio, passando a proibir a publicação e circulação de vídeos que neguem ou banalizem a facada sofrida pelo presidente Jair Bolsonaro (PL) em Juiz de Fora (MG) em 2018.

“Nossa política de discurso de ódio proíbe conteúdo que negue, banalize ou minimize eventos históricos violentos, incluindo o esfaqueamento de Jair Bolsonaro. O discurso de ódio não é permitido no YouTube, e removeremos material sobre o esfaqueamento de Jair Bolsonaro que viole esta política se não fornecer contexto educacional, documental, científico ou artístico no vídeo ou áudio”, afirma a plataforma, em nota enviada ao portal iG.

Nesta quarta-feira, alguns vídeos enquadrados na política foram deletados pelo YouTube. Mas esta não foi a única regra alterada pela plataforma. Agora, também são proibidos vídeos que aleguem fraude nas eleições de 2014 – antes, a medida valia apenas para o pleito de 2018. Diante disso, a live de Bolsonaro com embaixadores publicada em 18 de julho foi deletada pelo YouTube  nesta quarta, já que nela o presidente afirmou que houve fraude nas eleições de 2014, informação que é falsa.

Veja Também:  Novos emojis são anunciados para 2019 e um vira piada nainternet; entenda

A medida vem após o YouTube afirmar que não removeria o vídeo e em meio a um histórico de baixa moderação de conteúdo quando o assunto são os vídeos publicados no canal do presidente.  Reportagem do portal iG revelou que a plataforma demora em média nove meses para punir o canal de Bolsonaro e deletar vídeos nos quais ele desinforma.

A demora é um dos motivos pelos quais o canal de Bolsonaro segue no ar, já que a quantidade de vídeos excluídos poderia fazer com que ele fosse banido da plataforma.

A exclusão desta quarta-feira, por exemplo, não gera uma punição ao canal do presidente, já que o vídeo foi excluído com base em uma regra que ainda não existia quando a transmissão foi feita.


Fonte: IG TECNOLOGIA

Comentários Facebook
Continue lendo

Tecnologia

YouTube volta atrás e deleta live de Bolsonaro com embaixadores

Publicados

em

Bolsonaro durante reunião com embaixadores
Reprodução – 19/07/2022

Bolsonaro durante reunião com embaixadores

O YouTube excluiu nesta quarta-feira (10) a live do presidente Jair Bolsonaro (PL) com embaixadores publicada em 18 de julho. Na reunião, Bolsonaro atacou as urnas eletrônicas e o Tribunal Superior Eleitoral (TSE) .

Na semana em que o encontro foi transmitido no YouTube,  a plataforma afirmou que não removeria o vídeo por entender que “não foram encontradas violações às políticas de comunidade” da plataforma. Agora, o Youtube atualizou suas regras, o que fez com que a live fosse banida.

“A política de integridade eleitoral do YouTube proíbe conteúdo com informações falsas sobre fraude generalizada, erros ou problemas técnicos que supostamente tenham alterado o resultado de eleições anteriores, após os resultados já terem sido oficialmente confirmados. Essa diretriz agora também se aplica às eleições presidenciais brasileiras de 2014, além do pleito de 2018”, diz o YouTube em nota enviada ao portal iG.

Antes, a política de integridade eleitoral se aplicava apenas às eleições de 2018 no Brasil, se ampliando agora para as de 2014. A regra ainda não cita as eleições presidenciais deste ano.

No encontro com embaixadores, Bolsonaro afirmou que, em 2014, houve uma fraude eleitoral que beneficiou a ex-presidente Dilma Rousseff e prejudicou o então candidato à Presidência da República Aécio Neves, informação que é falsa.


Fonte: IG TECNOLOGIA

Comentários Facebook
Continue lendo

QUEREMOS SABER SUA OPINIÃO

EM SEU PONTO DE VISTA A GESTÃO AZENILDA PEREIRA SERÁ?

Barra do Bugres e Região

Mato Grosso

Agronegócio

Mais Lidas da Semana