Mentes Artificiais: A Possibilidade de Consciência em Máquinas
Resumo
O episódio discute a possibilidade de máquinas desenvolverem consciência e mente, abordando questões como o teste de Turing, a definição de consciência humana e os desafios técnicos e éticos envolvidos. Os participantes debatem se sistemas artificiais poderiam algum dia ter emoções, autoconsciência e direitos equivalentes aos humanos.
São exploradas as perspectivas da neurociência, computação e filosofia sobre o tema, incluindo a dificuldade de definir consciência mesmo em humanos e os avanços no reconhecimento de emoções por máquinas. A conversa aborda também a relação entre memória e consciência, e como sistemas de IA poderiam evoluir para incluir componentes emocionais.
O debate se estende às implicações éticas e legais de máquinas conscientes, mencionando obras de ficção científica como as leis da robótica de Asimov e filmes como “O Homem Bicentenário”. Os participantes consideram se máquinas com autoconsciência deveriam ter direitos e como isso transformaria nossa relação com a tecnologia.
Por fim, são discutidos os avanços práticos em inteligência artificial e cognição, incluindo a integração de paradigmas neurais e simbólicos, e como a pesquisa nessa área pode ajudar a entender melhor a mente humana enquanto avança na criação de sistemas artificiais mais complexos.
Anotações
- 00:01:20 — Analogia de Dijkstra sobre máquinas pensantes Luiz Lambi apresenta a famosa analogia de Dijkstra: ‘a ideia de computadores pensarem é análoga à ideia de submarinos nadarem’. Inicia-se a discussão sobre a possibilidade de consciência em máquinas e como o estudo da consciência só recentemente começou a ser considerado científico.
- 00:05:14 — Definição filosófica de consciência Jorge Kieffel discute as dificuldades em definir consciência, mencionando que elementos como memória, atenção e emoção estão interligados. Ele cita Canto e sua definição de consciência como ‘monitoramento do si próprio’, argumentando que sem memória não existe consciência.
- 00:09:44 — Limitações dos detectores de mentiras Debate sobre a fragilidade do componente emocional para definir consciência. São mencionados detectores de mentiras comerciais baseados em variáveis fisiológicas (cardíacas, condutância, respiratórias) que não funcionam adequadamente, ilustrando as limitações atuais na detecção de estados emocionais.
- 00:17:39 — Direitos éticos de máquinas conscientes Discussão sobre implicações éticas quando máquinas desenvolvem consciência. Marco de Arte menciona ‘O Homem Bicentenário’ como exemplo de robô que busca direitos humanos. É debatido se máquinas precisariam ter autoconsciência para ter direitos, com comparações aos direitos animais e questões filosóficas sobre outras mentes.
- 00:22:23 — Leis da robótica de Asimov e aplicações militares Aline Villavicencio apresenta as três leis da robótica de Asimov. É discutido como essas leis são para máquinas não autônomas e como aplicações militares contradizem esses princípios, com menção ao financiamento militar em pesquisas de robótica para uso em combate.
Indicações
Filmes
- O Homem Bicentenário — Citado como exemplo de robô que busca direitos humanos e cidadania por desenvolver consciência.
- 2001: Uma Odisseia no Espaço — Mencionado o HAL 9000 como exemplo de mente artificial rebelde que se volta contra humanos.
- Blade Runner — Citado como exemplo de androides que desenvolvem autoconsciência e lutam por sobrevivência.
- Jornada nas Estrelas — Data mencionado como exemplo positivo de robô que busca entender a humanidade.
- Futurama — Bender citado como robô com características humanas, embora de mau caráter.
Livros
- Asimov - obras sobre robótica — Mencionadas as leis da robótica de Asimov e suas implicações éticas para máquinas autônomas.
Pessoas
- Edsger Dijkstra — Cientista da computação crítico da IA, conhecido pela analogia de que ‘computadores pensarem é como submarinos nadarem’.
- Ray Kurzweil — Futurista mencionado por prever a singularidade tecnológica nos próximos 15-20 anos através da evolução exponencial.
- Francis Crick — Co-descobridor do DNA que posteriormente direcionou sua pesquisa para a busca da localização da consciência no cérebro.
Linha do Tempo
- 00:01:20 — Introdução ao debate sobre máquinas pensantes — Luiz Lambi apresenta a analogia de Dijkstra sobre computadores pensarem ser como submarinos nadarem, iniciando a discussão sobre a possibilidade de máquinas terem consciência. É mencionado que o estudo da consciência só recentemente começou a ser considerado científico, com os neurocientistas presentes podendo abordar essa questão.
- 00:05:14 — Desafios da neurociência em definir consciência — Jorge Kieffel discute as dificuldades em definir elementos essenciais da consciência humana, mencionando que memória, atenção e conteúdo emocional estão interligados. Ele cita Canto e sua definição de consciência como monitoramento do si próprio, argumentando que sem memória não existe consciência.
- 00:06:45 — Reconhecimento de emoções em IA — Aline Villavicencio explica como a inteligência artificial evoluiu de tentar simular emoções humanas para reconhecê-las em humanos. Ela menciona o uso de linguagem corporal facial e processamento de imagens para detectar emoções, destacando que sistemas já conseguem reconhecer estados afetivos com boa precisão em contextos específicos como aprendizagem.
- 00:09:44 — Limitações na detecção de emoções e mentiras — Debate sobre a fragilidade do componente emocional para definir consciência, com menção a detectores de mentiras comerciais que não funcionam adequadamente. Os participantes discutem como humanos podem fraudar sistemas de detecção e as limitações atuais da tecnologia nessa área.
- 00:13:10 — Emulação de emoções em máquinas — Discussão sobre se máquinas poderiam emular internamente emoções, com uma visão mecanicista de que emoções seriam modos diferentes de funcionamento cerebral. É proposta a ideia de que máquinas com medo processariam informações visualmente mais rápido em detrimento da precisão.
- 00:16:35 — Viabilidade técnica de máquinas conscientes — Luiz Lambi questiona a viabilidade de construir sistemas com todas as dimensões humanas (raciocínio, aprendizado, emoções, consciência). Ele argumenta que mesmo se questões científicas forem resolvidas, ainda haveria enormes desafios de engenharia, e que a ciência cognitiva ainda não entende completamente a cognição humana.
- 00:17:39 — Implicações éticas de máquinas conscientes — Marco de Arte levanta questões éticas sobre máquinas pensantes, mencionando o filme “O Homem Bicentenário” e como organismos pensantes passariam a ser criaturas com autonomia e direitos. É discutido se máquinas precisariam ter autoconsciência para ter direitos, comparando com direitos animais.
- 00:22:23 — Leis da robótica de Asimov — Aline Villavicencio apresenta as três leis básicas da robótica de Asimov: 1) não machucar humanos, 2) obedecer ordens humanas, 3) proteger sua existência sem conflitar com as leis anteriores. É discutido como essas leis são para máquinas não autônomas e como aplicações militares contradizem esses princípios.
- 00:25:06 — Integração de habilidades cognitivas em IA — Luiz Lambi argumenta que o primeiro passo para sistemas conscientes é integrar diferentes habilidades cognitivas, combinando paradigmas neurais e simbólicos. Ele defende que a interdisciplinaridade na IA pode levar a sistemas com consciência no futuro.
- 00:27:38 — Representações culturais de robôs conscientes — Marco de Arte faz uma reflexão final sobre representações culturais de robôs na ficção científica, desde escravos (Peridus, Guerra das Estrelas) até rebeldes (HAL 9000, Blade Runner) e positivos (Data, Bender). Ele questiona qual forma assumiria uma mente artificial real e as implicações de criar uma nova espécie.
Dados do Episódio
- Podcast: Fronteiras da Ciência
- Autor: Fronteiras da Ciência/IF-UFRGS
- Categoria: Science
- Publicado: 2010-11-09T10:00:05Z
Referências
- URL PocketCasts: https://pocketcasts.com/podcast/fronteiras-da-ci%C3%AAncia/fb4669d0-4a98-012e-1aa8-00163e1b201c/intelig%C3%AAncia-artificial-parte-ii-realidade-e-fic%C3%A7%C3%A3o/fc125ce0-4a98-012e-1aa8-00163e1b201c
- UUID Episódio: fc125ce0-4a98-012e-1aa8-00163e1b201c
Dados do Podcast
- Nome: Fronteiras da Ciência
- Site: http://frontdaciencia.ufrgs.br
- UUID: fb4669d0-4a98-012e-1aa8-00163e1b201c
Transcrição
[00:00:00] Este é o programa Fronteiras da Ciência, da rádio da Universidade, onde discutiremos
[00:00:09] os limites entre o que é ciência e o que é mito.
[00:00:13] No programa anterior sobre inteligência artificial, a gente discutiu muito do progresso
[00:00:19] nessa área, vamos dizer, no dia a dia, o que está acontecendo, qual é a perspectiva
[00:00:24] de evolução.
[00:00:25] No programa de hoje, a gente vai abordar um tema mais tipo ficção científica, onde
[00:00:31] a gente vai discutir também um assunto que já entrou no programa algumas vezes, a questão
[00:00:35] da mente.
[00:00:36] E se existiria a possibilidade de a gente ter um ser artificial que tivesse mente, como
[00:00:44] a nossa, e portanto tivesse direito a ter direitos e ter opiniões e se relacionar com
[00:00:50] seres humanos de igual para igual.
[00:00:52] Vamos discutir esses temas, estão aqui o professor Aline Villavicencio e o professor
[00:00:57] Luiz Lambi, do Departamento de Informática Teórica da URIX, o Jorge Kieffel, do Departamento
[00:01:01] de Biofísica da URIX e eu Marco de Arte da Física.
[00:01:04] Eu vou começar, em algum momento, no último programa de inteligência artificial, a gente
[00:01:09] discutiu a questão do teste de Turing e a possibilidade de existência da mente, então
[00:01:14] eu queria começar pelo Lambi aqui sobre a possibilidade de uma máquina pensar e acabar
[00:01:19] com a gente.
[00:01:20] Então, boa tarde a todos, sobre a possibilidade das máquinas pensarem, existia um grande
[00:01:26] crítico da inteligência artificial, então é até contraditório, eu começo falando
[00:01:31] contra a inteligência artificial, que não é a minha opinião, a opinião desse crítico,
[00:01:35] que era o Dijkstra, que foi um cientista de computação muito famoso, que ele dizia que
[00:01:38] a ideia de computadores pensarem é análoga à ideia de submarinos nadarem, era a analogia
[00:01:46] que ele fazia, que o Dijkstra fazia.
[00:01:48] Claro, ele era um crítico muito enfático da IA e também que continha uma dose de
[00:01:53] ironia holandesa, de ironia holandesa, digamos assim, no raciocínio do Dijkstra, mas como
[00:02:00] o professor Marco de Arte coloca, isso é um objetivo, uma grande investigação de
[00:02:07] mais de 50, 60 anos em termos de inteligência artificial moderna e, como tu bem colocasse,
[00:02:14] a gente colocou e discutiu a questão do teste de Turing na última, nosso último
[00:02:19] encontro, existem outros argumentos pro e contra e um deles, ou uma das áreas que
[00:02:25] pode vir a colaborar com isso é a área que estuda a questão da consciência, até hoje
[00:02:32] os mecanismos de consciência nossos eles não estão…
[00:02:35] O que é só levantar também a questão, interrompendo que a discussão sobre a consciência não
[00:02:41] era considerada científica até pouco tempo atrás, nos últimos 10 anos ela está começando
[00:02:45] a ser considerada científica.
[00:02:47] Mas ainda não é consensual.
[00:02:48] Não é consensual, nós temos dois neuroscientistas aqui na mesa, os neuroscientistas podem até
[00:02:55] abordar essa questão, mas em termos de computação existem implementações, existem sistemas
[00:03:01] que tentam defender a ideia de que é possível construir máquinas conscientes, muitos desses
[00:03:07] são baseados em reconhecimento de padrões, estaria ou não a máquina conscientemente
[00:03:12] reconhecendo padrões de face, isso também tem aplicações, aí a gente deixa um gancho
[00:03:17] pra seguir pra questão de robótica, mas em termos de consciência, eu acredito que
[00:03:23] a estudos de consciência são estudos levados seriamente hoje em dia, como vocês dois são
[00:03:29] investigadores nessa área, conhecem muito bem essa questão, e até porque a definição
[00:03:34] de cognição em computação é uma questão muito recente e muito em voga, até que ponto
[00:03:42] quando computadores executam tarefas de raciocínio lógico, eles estão imbuídos de alguma cognição?
[00:03:50] Será que esses mecanismos de inferência são ou não podem ser vistos como conscientes?
[00:03:56] Bom, isso são tudo questões em aberto, nós, do ponto de vista científico, a gente não
[00:04:00] deveria ter muitas crenças, digamos assim, a gente deveria testar hipóteses.
[00:04:05] Baixar a cabeça e trabalhar.
[00:04:06] Baixar a cabeça e trabalhar, eu diria, eu tenho crenças, o que é uma coisa contraditória
[00:04:10] com o saber científico, então não chamo bem de crença, eu faço, construo hipóteses
[00:04:14] de que seja possível construir procedimentos de inferência autônomos, que são aqueles
[00:04:18] procedimentos que dada a experiência com aquilo que a máquina aprende do ambiente, com aquilo
[00:04:23] que ela capta através de sensores, seja de visão, seja de alguma outra forma de processamento
[00:04:29] de visão, eu acredito, eu tenho visto, melhor dizendo, que eu creia que a gente vai chegar
[00:04:34] lá, eu tenho visto procedimentos que demonstram inteligência, demonstram adaptabilidade a
[00:04:40] ambientes não explorados anteriormente através de robôs ou até mesmo através de sistemas
[00:04:45] de software.
[00:04:46] É mais simples hoje em dia a gente entender algumas aplicações de computação que têm
[00:04:50] alguma consciência do ambiente do que explicar a consciência de máquina através de aplicações
[00:04:55] em software, do que explicar muitas vezes através de sistemas robóticos ou de robôs
[00:05:00] porque eles são restritos a aplicações em que poucas pessoas têm acesso.
[00:05:04] A gente lembrou, não vai enfrentar a gente com isso.
[00:05:07] Eu queria fazer um gancho aí no meio porque eu não seria tão otimista assim, até, bem
[00:05:11] que eu trabalho com neurobiologia da memória, mas não trabalho com área da consciência.
[00:05:14] O problema é que as neurociências cognitivas, no caso, que trabalham com cognição ou comportamento,
[00:05:19] eu sou um comportamentalista, né, vem com dificuldade definir quais elementos são essenciais
[00:05:24] nisso que é chamado de consciência.
[00:05:27] Jorge, apelindo o parênteses, que nem para a consciência humana…
[00:05:30] Existe um consenso, não existe.
[00:05:31] Exato.
[00:05:32] Então assim, por exemplo, nós, eu trabalho com memória e memória, o grande problema
[00:05:36] nosso metodológico é separar memória de coisas que estão muito imbricadas, mas que
[00:05:39] atrapalham a medição da própria memória, por exemplo, atenção, por exemplo, conteúdo
[00:05:44] emocional, enfim, uma série de aspectos, emoção, medo, enfim, ansiedade, todos esses
[00:05:50] elementos adicionais aí que, que na verdade são como que compartimentos ou caixinhas
[00:05:54] onde, na verdade, estão todas juntas, são indissociáveis.
[00:05:57] Então, na verdade, consciência, tu tem que puxar definições que foram filósofos que
[00:06:00] fizeram, na verdade.
[00:06:01] Por isso que a gente aqui adianta.
[00:06:02] A minha melhor definição foi Canto, que fez a consciência, que é aquela questão
[00:06:05] do monitoramento do si próprio, passo a passo, de momento a momento, é eu me lembrando
[00:06:11] de mim mesmo constantemente.
[00:06:13] Pra mim, e eu que trabalho com memória, eu puxo o tapete pro meu lado, por que não,
[00:06:16] a memória é a chave pra entender a consciência, sem memória não existe consciência.
[00:06:19] Porque também não vai ter autoconsciência.
[00:06:21] Agora, isso não é suficiente, né?
[00:06:23] Tu mencionou essa questão da emoção, eu vou usar isso pra perguntar aqui pra Lini,
[00:06:27] porque quando a gente pensa em mente, a gente pensa em emoção, em sentimento, né?
[00:06:30] E aí a questão é…
[00:06:31] Essa parte não é na minha seriosa…
[00:06:32] Não necessariamente naquilo que é muito racional, a gente pensa.
[00:06:36] Sim, uma máquina teria sentimento, mas a emoção é trabalhada em inteligência artificial
[00:06:41] de uma forma mais prática, e aí eu queria que a Lini nos contasse um pouco disso.
[00:06:45] É que eu acho que tem que fazer também o deixar bem claro que o que se imaginava que
[00:06:49] fosse conseguir no início da inteligência artificial, eram máquinas que simulassem o
[00:06:52] comportamento humano, inclusive as emoções.
[00:06:55] E hoje a gente já se tem uma visão muito mais pragmática disso, que é como é que
[00:06:58] a gente consegue que a inteligência artificial simule e reconheça esses processos humanos.
[00:07:03] Então, muito do que se faz não é de tentar fazer simular no computador a emoção humana,
[00:07:08] mas de reconhecer emoções em humanos.
[00:07:11] Isso é complexíssimo, ensina.
[00:07:12] Mas de certa maneira, Jorge, se tu for pensar, tem alguns diagnósticos, porque a gente também
[00:07:17] tem que se lembrar que o computador, ele está rodando uma série de programas, e programas
[00:07:23] são coisas que são discretizáveis, coisas que a gente consegue diagnosticar.
[00:07:26] Então, por exemplo, usando as sobrancelhas, o reconhecimento da posição…
[00:07:31] Sim, a linguagem corporal é facial.
[00:07:32] Linguagem corporal é facial.
[00:07:33] Que é visual.
[00:07:34] Que é visual.
[00:07:35] Que é visual.
[00:07:36] Se consegue já ter um diagnóstico mais ou menos preciso de que tipo de emoção está
[00:07:39] sendo mostrada por uma pessoa.
[00:07:41] Mas é possível enganar isso.
[00:07:42] E esse ponto que eu queria, que eu estava fazendo muito alongadamente aqui, os computadores
[00:07:46] são melhores, hoje em dia, na questão de entender o ambiente, ou seja, naquilo que
[00:07:50] a gente diz de aprendizagem.
[00:07:51] Eles aprendem muito com aquilo que eles percebem através de sensores.
[00:07:55] Isso que a Aline coloca, né, a questão de captar emoções em seres humanos que estão
[00:07:59] interagindo com os sistemas computacionais, isso tem evoluído bastante.
[00:08:02] Seja pelo reconhecimento de expressões, que é feito tanto em processamento de imagens,
[00:08:06] quanto em visão computacional, quanto em computação gráfica, ou seja, são áreas
[00:08:09] multidisciplinares que muitas vezes não se conversam, daí a dificuldade de construir
[00:08:13] esses sistemas.
[00:08:14] De emoções em seres humanos, ou daquilo que a gente chama de habilidades cognitivas
[00:08:19] intrínsecas aos seres humanos, que não computacionais, isso tem avançado bastante.
[00:08:23] Até a própria definição desses sistemas que verificam perfis e recomendam produtos
[00:08:29] para as pessoas, aquilo é que esses sistemas se adaptam às necessidades dos seres humanos,
[00:08:35] que nem sempre são aquelas necessidades que a gente pensa que um sistema computacional
[00:08:39] um dia teria a ter.
[00:08:40] A gente tem começado a simular características humanas, se a gente não tem começado a
[00:08:44] simular características humanas ligadas a emoção, a gente pelo menos tem começado
[00:08:49] a construir sistemas que reconhecem o que é um primeiro passo.
[00:08:52] Eu vou vestir minha fatiota de advogado do diabo, porque eu tô gostando disso, porque
[00:08:56] na verdade veja só, o problema do componente emocional para definir consciência é talvez
[00:09:00] o mais frágil, eu vejo todos, porque precisamente o celular tem uma capacidade incomum de,
[00:09:05] assim como de exibir universalmente emoções, ele também tem de ocultá-las, que eu digo
[00:09:10] os profissionais do poker, mas não é só isso, nós vamos fazer, mas enfim, não vamos
[00:09:15] entrar nessa parte triste, mas o fato é que se tu examina assim, é possível, digamos,
[00:09:20] burlar muito a percepção das pessoas, aliás essa é a base de muitos pseudosciências
[00:09:25] inclusive, quer dizer, o homem é o único animal capaz de intencionalmente fraudar
[00:09:28] uma situação e se explorar a credulidade e a expectativa equivocada da vítima, né?
[00:09:34] Sim, mas em que contexto você tá falando isso?
[00:09:35] Então, você pode fraudar pessoas que já são pessoas conscientes e inteligentes, o
[00:09:39] que dizer de máquinas que ainda estão, numa etapa anterior, emulando esse componente?
[00:09:44] Então, eu não quero botar a…
[00:09:46] Sim, as máquinas não estão emulando, digamos assim, esse componente, mas eles estão reconhecendo
[00:09:50] esse comportamento, no momento que a gente aprende a reconhecer emoções, ou entre elas,
[00:09:57] as dissimulações que as pessoas fazem, a gente aprende a reconhecer, isso é o primeiro
[00:10:01] passo para que a gente possa construir sistemas que eles próprios tenham esse comportamento,
[00:10:05] se isso é bom, é outra questão.
[00:10:07] Não tem mais repatieta, mas eu vou afirmar ainda que eu acho duvidoso que esse caminho
[00:10:11] vai dar certo.
[00:10:12] Até porque nós vamos ter que fazer um programa em uma hora dessas sobre detratores de mentiras,
[00:10:15] que é um mito popular.
[00:10:17] Seria impossível, com medidas físicas, de fisiológicos, organizados, saber se uma pessoa
[00:10:21] tá mentindo ou não.
[00:10:22] Bom, hoje em dia tem…
[00:10:23] E é já uma pseudociência popularíssima.
[00:10:24] Sim, sim.
[00:10:25] Um sistema altamente que está muito bem no mercado aí, é comercializado no Brasil,
[00:10:30] que é usado por empresas, se não me engano, até por polícias de vários estados aí.
[00:10:36] Inclusive a polícia, que não funciona.
[00:10:37] Não funciona, dá para demonstrar por quê.
[00:10:38] Existe um sistema que é um detector de emoções, de mentiras, que é comercializado no mercado
[00:10:44] internacional.
[00:10:45] Mas ele é baseado na PL?
[00:10:46] Porque tem uns baseados…
[00:10:47] O detector base é de quatro variáveis, que é as variações cardíacas, a condutância
[00:10:52] na PL e a taxa respiratória.
[00:10:54] Mas isso não é suficiente.
[00:10:55] Isso é um programa para outro programa.
[00:10:56] Essa é uma outra questão.
[00:10:57] Esse é o programa Fronteiras da Ciência, a gente tá discutindo a possibilidade de
[00:11:01] mente em robôs.
[00:11:02] Máquinas.
[00:11:03] Máquinas.
[00:11:04] Eu gosto dos robôs.
[00:11:06] Mas eu gosto dos robôs 9000 e não robôs.
[00:11:08] E o nosso site é o fronteidasciência.urgs.br
[00:11:12] Mas voltando ao assunto de…
[00:11:14] Nós estamos brigando com o conceito de consciência.
[00:11:17] Mas tem que se ver que expectativa que a gente quer para a performance dos computadores.
[00:11:21] Porque pode ser usado, por exemplo, a detecção de emoções podem ser usadas em sistemas
[00:11:25] de aprendizado para ajudar o robô a detectar se o aprendiz, ou a máquina detectar se
[00:11:31] o aprendiz está engajado na tarefa de aprendizado, se ele está com uma atitude mais positiva,
[00:11:36] menos positiva.
[00:11:37] E essas emoções, ou estados afetivos mais grossos, isso se pode detectar com uma boa
[00:11:44] precisão.
[00:11:45] Então, depende muito da aplicação para que for ser usado.
[00:11:48] Porque no caso de um aprendiz, por exemplo, qual seria o objetivo do aprendiz tentar burlar
[00:11:52] e mostrar emoções, ou esconder emoções de um sistema que está tentando ajudar ele.
[00:11:57] Isso é um problema.
[00:11:58] Depende da expectativa que a gente tem.
[00:11:59] E a outra é que mesmo se a gente não consegue detectar muitas vezes emoções, a gente não
[00:12:03] pode esperar que a máquina consiga detectar aquelas que nem humanos não conseguem.
[00:12:07] Olha só, não está querendo fazer máquinas cada vez mais complexas que consigam processar
[00:12:12] a informação em paralelo e integrar elas em associações cada vez mais livres que
[00:12:17] assemelhem as associações racionais que nossos mentes fazem?
[00:12:22] Talvez não colocar o fim do processo imaginado como meta, mas sim tentar fazer mais complexos
[00:12:28] que em algum momento dessa complexidade imerja, se não seria um ângulo melhor.
[00:12:31] Porque eu ainda sou um defensor do teste de Turing.
[00:12:33] Eu acho que não adianta, mexa com qualquer definição do Zé, ele que vai ser o definidor
[00:12:37] no final.
[00:12:38] No momento em que a gente não conseguir distinguir bem uma máquina de um humano no teste de
[00:12:41] Turing, é porque nós vamos ter alguma coisa muito próxima.
[00:12:44] Lembra, Jorge, que o teste de Turing…
[00:12:45] Não importa se vai ter aspectos emocionais, racionais, de atenção, de tudo, é divertido
[00:12:50] pensar isso.
[00:12:51] Lembra que o teste de Turing não te define o tempo que a análise tem que levar.
[00:12:53] É, pode levar anos.
[00:12:54] Pode levar anos.
[00:12:55] É, e não é prático, mas é…
[00:12:57] Eu queria voltar à questão de…
[00:13:00] Imagina que a gente constrói uma máquina, estou forçando essa direção mais sci-fi aqui,
[00:13:05] mas que a gente constrói uma máquina que tenha a mesma sensação de autoconsciência
[00:13:09] que a gente tem.
[00:13:10] O que seria necessário?
[00:13:11] A Lini mencionou que a máquina hoje em dia pode reconhecer emoções, mas será que ela
[00:13:16] pode emular internamente a emoção?
[00:13:19] Eu vou só dar minha visão mais ou menos do que a emoção, uma visão bem mecanicista
[00:13:24] de animais.
[00:13:25] Para mim, a emoção é uma…
[00:13:27] Bom, você tem uma máquina que é o cérebro, mas tem modos diferentes de funcionamento
[00:13:31] do cérebro.
[00:13:32] Por exemplo, dependendo da emoção, a emoção seria…
[00:13:36] Você escolheu um modo…
[00:13:38] Imagina que você tem uma máquina que faz processamento visual, mas em certas situações
[00:13:42] você não pode dar o luxo de processar com toda a precisão, com todos os megapixels
[00:13:49] que você tem disponível na sua máquina.
[00:13:51] Para fazer processamentos mais rápidos, você tem que usar uma versão mais estilizada
[00:13:56] do teu input visual.
[00:13:57] Ou então, você tem que fazer os teus músculos funcionarem de uma forma mais rápida e menos
[00:14:03] precisa.
[00:14:04] Por exemplo, estou meio que descrevendo o que seria uma máquina com medo.
[00:14:07] Uma máquina com medo faria o processamento visual mais rápido e favoreceria a rapidez
[00:14:14] no músculo e em detrimento da precisão no movimento.
[00:14:18] Então, para mim, isso seria uma descrição grosseira de emoções e máquina.
[00:14:24] Mas isso é diferente em dizer que a máquina está sentindo medo.
[00:14:27] Então, eu queria que vocês comentassem a respeito disso.
[00:14:29] Eu sei, eu mandei uma batata quente.
[00:14:31] É uma batata bem quente.
[00:14:33] Na verdade, é um grande desafio.
[00:14:36] Eu vejo o seguinte, como foi colocado anteriormente aqui a própria consciência humana não é
[00:14:40] bem explicada.
[00:14:41] Hoje em dia, além da inteligência artificial, a gente tem a questão da cognição, da computação
[00:14:46] cognitiva.
[00:14:47] Até que ponto seria viável construir uma máquina ou um sistema artificial que tivesse
[00:14:52] todas as dimensões?
[00:14:53] Que tivesse tanto raciocínio lógico, quanto tivesse aprendizado, quanto fosse capaz de
[00:14:58] reconhecer imagens, tivesse um microprocessador ou múltiplos processadores altamente conectados
[00:15:05] como se fosse as nossas redes neurônios.
[00:15:08] Até que ponto isso seria possível?
[00:15:10] E além disso, ainda tivessem emoções e consciências e subessem emular comportamentos.
[00:15:16] Digamos que nós chegamos a um ponto no qual as questões da inteligência artificial
[00:15:20] estão resolvidas e as questões da cognição humana e da neurociência estão resolvidas
[00:15:25] do ponto de vista científico.
[00:15:27] Teria todo o processo de engenharia para construir esses artefatos além disso, além de tudo
[00:15:32] isso.
[00:15:33] Como se priorizar ainda sistemas onde a máquina vai deixar de exercer tarefas para o qual
[00:15:38] ela foi projetada para exercer tarefas do seu próprio benefício?
[00:15:42] Como seria feita essa programação no ponto que a autonomia da máquina ela é mais importante,
[00:15:49] a sua auto preservação, a sua autonomia, a sua consciência de preservação no ambiente,
[00:15:53] ela é mais importante do que a execução daquelas tarefas para o qual ela foi projetada.
[00:15:59] Bom, construir sistemas autônomos para tarefas simples é relativamente simples, mas construir
[00:16:04] sistemas autônomos para os desafios que tu coloca, eu diria que nós estamos assim a
[00:16:09] uma distância que eu não saberia nem quantificado do ponto de vista físico que tu coloca.
[00:16:14] A resposta é que eu não tenho, porque nem a ciência cognitiva…
[00:16:19] Mas a tua postura é uma postura prática ou uma postura em princípio?
[00:16:24] A minha postura é uma questão de em princípio, uma questão de princípio.
[00:16:29] Eu não sei nem como funciona ainda a cognição humana, tanto é que existe a ciência cognitiva
[00:16:35] que tem as suas disputas lá com a neurociência.
[00:16:37] É possível que a gente faça máquinas complexas que acabem atingindo esse nível de complexidade
[00:16:42] de comportamento antes mesmo de entender a própria base da biologia do fenômeno.
[00:16:47] Isso é um evento raro, digamos assim.
[00:16:49] Não, isso acontece muitas vezes.
[00:16:51] Tem uma outra questão também que talvez o objetivo final não seja só a gente construir
[00:16:59] essas máquinas, mas que a gente vai fazendo contribuições à medida que a gente vai
[00:17:03] tentando construir essas máquinas.
[00:17:05] Então, por exemplo, se o nosso objetivo final for construir máquinas pensantes,
[00:17:09] a gente vai poder usar mecanismos de inteligência artificial e de competência.
[00:17:13] Podemos entender melhor a cognição humana?
[00:17:15] A linha é bem prática, né?
[00:17:20] Mas o que ele levanta, na verdade, é onde esse tema se avança e entra no domínio da ética.
[00:17:25] Na verdade, um organismo pensante dele passa a ser uma espécie de criatura com uma certa…
[00:17:32] Autonomia.
[00:17:33] E aí você já bota em questão, inclusive, os direitos dela, né, Marco?
[00:17:36] Você já começa a ter em questão o que, por exemplo, aparece naquele filme,
[00:17:39] vou citar alguns filmes que eu gosto de bater,
[00:17:41] O Homem Bicentenário, que é a história de um robô tão inteligente,
[00:17:44] o único robô que tinha aquela inteligência positrônica do livro do Asimov,
[00:17:47] que, digamos, chegou um momento que ele pleiteou ser reconhecido como um cidadão
[00:17:51] com direito para poder casar, mesmo não podendo ter filhos.
[00:17:54] O filme faz um… Atenção, ouvinte, isso é um spoiler, acabei de contar a história.
[00:17:58] Mas, na verdade, era necessário…
[00:18:01] O Homem Bicentenário, eu vou repetir.
[00:18:03] Pega o podcast, escuta de novo.
[00:18:05] Mas, assim, veja, nesse momento vai estar em questão, inclusive,
[00:18:08] se essas máquinas que têm essa capacidade já não são outros seres, né, outras mentes.
[00:18:12] Aliás, deixa eu voltar um pouco atrás.
[00:18:14] O otimismo de você, assim, achar que vai poder emular novamente de novo,
[00:18:17] acho que ele pode sim acontecer.
[00:18:18] Eu não chamaria emular.
[00:18:20] Emular ou embajar.
[00:18:21] Criar uma mente própria.
[00:18:22] Criar uma mente própria.
[00:18:23] Pode ser ambas coisas.
[00:18:24] Baseada em alguma coisa que não é a biologia.
[00:18:27] Dá para discutir esse termo aí.
[00:18:29] Mas eu também não quero afundar essa questão, é que eu não sei se é possível,
[00:18:32] se ele é tão fácil, assim, quando falava, não seria tão otimista,
[00:18:34] porque além do problema da consciência, nós temos o problema das outras mentes,
[00:18:37] que é um problema filosófico clássico.
[00:18:39] Por exemplo, eu não sei nem se tu tem uma outra consciência.
[00:18:41] Filosoficamente, eu não tenho como demonstrar isso,
[00:18:43] a não ser por evidências indiretas, se tu te comporta como alguém que tem autonomia.
[00:18:47] Não, eu não sou um solipsista.
[00:18:49] Mas tu é um seguidor do Turing, assim?
[00:18:51] Não, eu estou pensando filosóficamente, como amador, claro.
[00:18:55] O que está me dizendo é que num futuro muito distante,
[00:18:58] eu posso ter duas máquinas que funcionam tão bem quanto um ser humano,
[00:19:02] no sentido de relação com o ser humano,
[00:19:04] mas uma delas pode não ter a propriedade,
[00:19:07] esse sentimento interno de consciência,
[00:19:09] e a outra tem e a gente nunca vai ficar sabendo.
[00:19:11] Não sei, eu estou dizendo que nem uma nem outra nós vamos ficar sabendo,
[00:19:14] porque nós também não temos como saber isso,
[00:19:16] entre nós, e cada um de nós é uma máquina independente.
[00:19:19] Pode ser que o Lambe tenha construído uma máquina
[00:19:23] e eu tenha construído outra.
[00:19:24] A minha tem autoconsciência e tem direitos,
[00:19:27] e a dele é só um amulado.
[00:19:29] Mas eu não sei se eles precisaram ter autoconsciência para ter direitos.
[00:19:31] Os animais têm, em certo modo, tipos de direitos de outra ordem,
[00:19:35] mas têm em função de como são criaturas tuteladas.
[00:19:38] A gente trabalha com animais de experimentação, eles têm,
[00:19:41] não digo direitos no sentido legal e humano, antropomórfico do tempo,
[00:19:44] mas existe uma legislação de proteção ao bem-estar animal,
[00:19:47] então é um tipo de direito.
[00:19:49] A questão é que as máquinas vão atingir esse nível e eles também vão entrar nisso.
[00:19:53] Sim, mas todo o progresso exige um repensamento das leis dos animais,
[00:20:00] desde que o mundo é mundo, os direitos dos animais foram sendo cada vez mais reconhecidos,
[00:20:05] a mesma coisa com os seres humanos, comparam os escravos.
[00:20:07] Não, isso tudo é verdade.
[00:20:08] Então, à medida que a ciência for avançando,
[00:20:10] os advogados vão ter bastante trabalho, porque eles vão ter que entender.
[00:20:13] Aliás, quando a gente debate os direitos dos animais com os mais radicais,
[00:20:18] a gente tem esse problema aqui.
[00:20:19] Temos tentativas de impedir com animais aqui no Brasil, como no mundo inteiro,
[00:20:23] e olha só…
[00:20:24] Vamos divergir.
[00:20:25] Não é uma diversão, você vai ver que não é.
[00:20:27] É diversão nos dois sentidos, que é assim,
[00:20:29] na verdade eles propõem se substituir para alternativas,
[00:20:31] e uma alternativa seria programas de computador.
[00:20:33] Em vez de eu usar o animal para fazer o experimento, eu faço num programa de computador.
[00:20:37] O que nós dizemos é que os programas de computador melhores que existem
[00:20:40] não passam de sínteses daquilo que a gente já sabe,
[00:20:43] portanto não contém quase nada do novo, então você não vai aprender o novo com eles.
[00:20:47] Porém, deixa eu terminar o argumento.
[00:20:49] Porém, se eu conseguir chegar num programa computador que seja exatamente igual
[00:20:54] e reproduza todas as características de um animal real,
[00:20:57] a pergunta vai ser outra.
[00:20:59] Eu tenho direito de fazer isso também com o programa?
[00:21:03] Isso é um problema interessante e cabeludo, e como todo problema filosófico, irritante.
[00:21:07] Mas botando um outro ponto de vista agora, por exemplo,
[00:21:09] as pesquisas com aprendizado de máquina,
[00:21:12] eles acabaram botando algumas alternativas sobre o próprio aprendizado humano,
[00:21:16] por exemplo, análise de grandes quantidades de texto que a gente não consegue fazer,
[00:21:20] mas que uma máquina consegue fazer.
[00:21:21] É verdade, e aí vocês fazem o que não usaram.
[00:21:22] Mas botaram as questões, por exemplo, de crianças.
[00:21:24] Crianças são sensíveis a frequência nos padrões que elas escutam.
[00:21:28] E elas usam muito desses padrões no aprendizado,
[00:21:31] se não a gente não teria como aprender.
[00:21:33] E aprende muito mais rápido.
[00:21:34] E aprende muito mais rápido.
[00:21:35] Então a gente consegue incorporar algumas dessas coisas nos programas de inteligência artificial
[00:21:40] e a gente pode tentar usar isso para entender melhor tanto a gente quanto para chegar no…
[00:21:45] Eu não estou dizendo…
[00:21:46] Eu não sou…
[00:21:47] Eu sou o advogado do diabro, mas eu não sou o diabro.
[00:21:49] Ou seja, eu não estou dizendo que não é possível descobrir essas coisas e eles são úteis.
[00:21:53] Eu estou dizendo que, no limite, quando chegar naquela borda,
[00:21:56] aí você pode começar a ver que há dificuldades que a gente ainda não superou no estudo humano,
[00:22:01] que talvez seja uma barreira para a gente entender quando dizer que essa máquina agora é inteligente.
[00:22:06] Esse é o programa Fronteiras da Ciência.
[00:22:08] A gente está discutindo a inteligência artificial
[00:22:11] e a possibilidade de a gente reproduzir em mente em máquinas, em robôs.
[00:22:16] O nosso site é o fronteirasciência.urgs.br.
[00:22:19] Só uma questão de curiosidade, a Aline tinha me chamado a atenção sobre as leis da robótica.
[00:22:23] Era bom falar, Elson.
[00:22:25] É só porque o Asimov é um dos meus heróis, então…
[00:22:28] Você podia dizer para nós as leis da robótica?
[00:22:30] É, ele não se aceita à robótica.
[00:22:31] A Aline tinha me mencionado anteriormente que as leis da robótica sofreram mudanças hoje em dia.
[00:22:36] As pessoas pensam novas…
[00:22:37] Eu te ouvi falar disso.
[00:22:38] A Aline pode falar das três leis básicas da Asimov.
[00:22:42] Bom, as mesmas leis, como elas foram botadas…
[00:22:45] O livro é o robô.
[00:22:47] São que o robô não pode machucar um ser humano,
[00:22:51] que um robô deve obedecer às ordens dadas por humanos
[00:22:54] e que um robô deve proteger a sua própria existência
[00:22:56] se não conflitar com a primeira ou segunda lei.
[00:22:59] Ele não pode machucar seres humanos.
[00:23:01] Dois, ele tem que obedecer às ordens desde que não imagina um ser humano.
[00:23:05] As leis anteriores.
[00:23:07] E a terceira depende das outras duas.
[00:23:09] Não pode contradizer.
[00:23:11] Não pode contradizer.
[00:23:12] Veja o que é interessante.
[00:23:14] Essas são leis para máquinas pensadas para não serem autônomas no sentido de consciência.
[00:23:19] Porque se elas possam ter consciência como nós, elas possam ter outros direitos humanos.
[00:23:23] Então elas não precisam de leis.
[00:23:24] Isso é uma lei de controle que você poderia eventualmente programar.
[00:23:27] E aí na ficção científica até nos escorrega delas quando isso dá errado.
[00:23:31] É uma lei desenhada para escravos.
[00:23:34] Para escravos. São leis escravistas.
[00:23:35] Até na ficção do Asimóvel, os cérebros positrônicos não eram.
[00:23:39] Eles eram autoconscientes.
[00:23:40] Sim, tanto que eles não conseguem cumprir ela.
[00:23:42] Porque isso mostra que na verdade não tem uma submersão das leis e é no automóvel.
[00:23:45] Mas ali, quais são as modificações que você disse que tinha ouvido falar em algumas modificações?
[00:23:48] Eu não conheço também.
[00:23:49] Bom, é que a primeira lei da robótica, por exemplo, diz que um robô não pode machucar um humano
[00:23:54] através de inatividade ou através de inatividade.
[00:23:58] Permitir omissão.
[00:23:59] Não pode nem se omitir.
[00:24:00] Permitir que um humano seja machucado.
[00:24:04] Então eles tiraram essa através da inatividade ou da omissão.
[00:24:08] Porque se viu que muitos dos sistemas nos quais os robôs poderiam ser usados, que eles não poderiam…
[00:24:17] Eu até vou fazer um gancho assim em cima disso.
[00:24:19] Não vamos esquecer que na verdade onde se mais se gasta dinheiro é preciso de um robôs,
[00:24:23] são as aplicações militares.
[00:24:25] E aliás, por exemplo, colegas como o Nico Aleres,
[00:24:28] o Brasil era financiado por duas agências militares americanas,
[00:24:31] porque eles estão muito interessados nisso, em ter robôs feitos para machucar as pessoas
[00:24:35] sem ter problema de morrer ou sangrar.
[00:24:37] As leis da robótica são leis…
[00:24:38] Mas é verdade, infelizmente…
[00:24:39] São leis científicas, são leis para cientistas que atuam pelo desenvolvimento do conhecimento, pelo bem da humanidade.
[00:24:46] E são leis rosa, por um mundo cor-de-rosa, que o mundo não é.
[00:24:49] Infelizmente nós podemos brigar por isso.
[00:24:52] A gente tem uns dois minutinhos finais para as considerações finais.
[00:24:55] Então eu vou começar as considerações finais aqui colocando o seguinte.
[00:24:59] Se nós queremos construir robôs ou computadores ou sistemas computacionais
[00:25:06] que tenham capacidade de consciência e inteligência,
[00:25:09] o primeiro passo é a gente tentar integrar as habilidades cognitivas.
[00:25:13] Já tem sido um grande avanço integrar paradigmas diferentes da própria inteligência artificial,
[00:25:19] como o paradigma neural e o paradigma simbólico.
[00:25:23] Se acredita que a integração de redes neurais com sistemas lógicos, com o modelo raciocínio,
[00:25:29] pode levar a sistemas que integrem raciocínio, aprendizagem e as inferências que computadores possam construir.
[00:25:37] Então o que eu vejo é que essa interdisciplinaridade que começa a nascer na inteligência artificial
[00:25:42] pode levar num futuro a sistemas com consciência.
[00:25:47] Então a minha mensagem final é, se o objetivo é construir máquinas que tenham consciência
[00:25:54] e entender a mente humana e depois entender a mente de computadores,
[00:25:58] e se projetar mentes de computadores depois que conseguirmos entender a mente humana,
[00:26:02] é que esses sistemas computacionais têm que levar em conta todas as habilidades cognitivas que a gente tem. Obrigado.
[00:26:11] Bom, eu queria colocar aqui, além do que o Wambry já falou,
[00:26:15] que se está fazendo muito avanço também na área de cognição humana,
[00:26:20] e inclusive se já consegue predizer o que uma pessoa está pensando só pelas…
[00:26:25] Isso é assustador, isso é assustador.
[00:26:27] Pelas menturas de…
[00:26:29] Gespes.
[00:26:30] Não, que onda a cerebraia.
[00:26:32] Não, ainda não é assustador.
[00:26:34] Mas é quase assustador, é quase assustador.
[00:26:37] Como tudo que acaba de nos ajudar, tem que ser assustador para mim.
[00:26:40] Essa é uma direção interessante, né?
[00:26:42] Porque isso me parece o programa que foi tocado pelo Francis Crick,
[00:26:47] os criadores do DNA, e em algum momento ele começou a direcionar toda a pesquisa dele à busca da consciência.
[00:26:53] Na verdade, ele estava focado até em achar qual é o lugar dentro do cérebro onde a consciência está.
[00:26:58] Onde está a consciência, exatamente.
[00:27:00] E fazer experimentos para, vamos dizer, para experimentalmente, entre aspas, cortar o cérebro em pedacinho
[00:27:07] e dizer, aqui não está, aqui não está, aqui não está.
[00:27:10] Então essa questão do uso da ressonância magnética funcional online,
[00:27:19] para saber qual é a parte do cérebro que o ser humano está usando para fazer o que e para pensar o que…
[00:27:24] Imagina nos aeroportos, com toda essa preocupação, o categorismo…
[00:27:27] Imagina nos casamentos…
[00:27:33] Uma reflexão final que eu faria é que, na verdade, nós estamos avançando bastante já, muito futuristicamente, né?
[00:27:38] Falando em futurismo, o sujeito mais louco que eu conheço a refletir esse termo é o Ray Kurzweil,
[00:27:42] que escreveu um livro em que ele enruma a singularidade e tal, e ele acha que essa barreira vai ser cruzada nos próximos 15, 20 anos.
[00:27:49] Ele acredita na ideia da evolução exponencial.
[00:27:51] Eu acho que ele é um alucinado, exagerado, mas menos que nem o Alvin Toffer nos anos 70, que também estava todo errado.
[00:27:56] Eu gosto de citar que, na cinematografia, robôs e mentes inteligentes de máquinas são representados ou como uma coisa boa, ou má, ou escrava.
[00:28:03] Vejam, são os robôs idiotas, como o Peridus no espaço, que são apenas escravos, ou do filme Planeta Proibido,
[00:28:09] ou os robôs do Guerra das Estrelas, né?
[00:28:11] Mas são os robôs rebeldes, que se rebelam contra o homem e não obedecem, como o Howl 9000, que não é um robô, mas é uma mente, né?
[00:28:18] Os robôs que atingem uma autoconsciência e querem lutar pela sua sobrevivência no Blade Runner, o caçador de androides,
[00:28:24] e, principalmente, a versão dramática dos robôs do Terminator do futuro, que eles voltam no tempo para acabar conosco numa competição entre espécies dramática.
[00:28:33] E volta a pensar em mentes positivas, como, por exemplo, Data, da Jornada das Estrelas, que é o meu robô favorito,
[00:28:38] e o próprio robô do filme O Robô, ali, que está no livro, né?
[00:28:41] E o meu robô favorito, na verdade, não é o Data.
[00:28:43] Esse é o que eu mais gosto, mas o meu robô favorito, por não ser o mais engraçado, é o Bender, da série Futurama.
[00:28:47] Mas esse não é um bom exemplo, porque ele é muito mau o caráter, mas ele é o mais humano de todos os robôs que eu conheço.
[00:28:51] Mas, enfim, ele fica pensando, né? A gente não sabe, quando surgir essa mente, qual dessas formas ele vai assumir, né?
[00:28:56] A verdade é que nós podemos estar dando guarida a surgir uma nova espécie,
[00:28:59] que pode, inclusive, se rebelar e, por alguma razão de adaptação, ter que disputar com a gente e até nos destruindo. Não sabemos.
[00:29:05] Mas são questões inquietantes que se abrem, já que nós estamos metendo a mão nesse vespeiro, né?
[00:29:10] E isso é só o começo de uma longa jornada. Ninguém sabe onde isso vai chegar.
[00:29:14] Então, bom, esse foi o programa Fronteiras da Ciência.
[00:29:16] Discutimos hoje a inteligência artificial e a possibilidade de criarmos mentes artificiais.
[00:29:22] Mentes reais em máquinas artificiais.
[00:29:25] É, mentes artificiais.
[00:29:26] Estiveram aqui com a gente a professor Aline Villavicencio,
[00:29:29] o professor Luís Lambi, do Departamento de Informática Teórica, da UIS,
[00:29:32] o professor Jorge Pilfo, do Departamento de Biofísica, da URIGS,
[00:29:35] e eu, o Marco de Arte, do Departamento de Física, da URIGS.
[00:29:45] A Rádio da Universidade não é responsável por eventuais opiniões pessoais aqui expressas.
[00:29:51] Técnica de Gilson de César e Kleber Mendes. Direção Técnica de Francisco Guazelli.