Frontdaciência - T08E13 - Ética e Robótica
Resumo
O episódio discute a iniciativa global da IEEE (Instituto de Engenharia Eletroeletrônica) para estabelecer considerações éticas no desenvolvimento de sistemas autônomos e inteligência artificial. A conversa é conduzida pelo roboticista Edson Prestes e pelo filósofo Daniel Nascimento, com mediação dos apresentadores Jorge Kielfeld e Marco de Arte.
A iniciativa reúne especialistas de diversas áreas – roboticistas, cientistas sociais, juristas – para pensar de forma holística as implicações da inserção de robôs na sociedade. O ponto de partida é a preocupação com o alinhamento da tecnologia com os valores humanos e a prevenção de problemas futuros, inspirada por exemplos históricos de tecnologias com consequências não antecipadas, como os CFCs e o amianto.
O debate filosófico centra-se na interpretação do documento da IEEE, que coloca a proteção dos direitos humanos como princípio fundamental. Daniel Nascimento analisa que o medo subjacente é o “medo faustiano” de que as máquinas tomem o lugar dos humanos, refletido na linguagem que enfatiza que os robôs devem “servir” à humanidade. Discute-se também a questão da responsabilidade, especialmente em contextos como o uso de drones autônomos em guerras.
São abordados temas concretos como o impacto no emprego, a privacidade de dados, a computação afetiva e os robôs sociais (incluindo robôs sexuais e cuidadores). Explora-se a resistência cultural aos robôs antropomórficos, o “vale da estranheza” (uncanny valley) e a diferença de aceitação entre culturas, como o Japão versus os EUA.
O episódio também faz um paralelo com as famosas Três Leis da Robótica de Isaac Asimov, notando semelhanças na preocupação central com a proteção humana, e levanta a questão futura (considerada prematura pelos participantes) sobre a possibilidade de conferir direitos a máquinas verdadeiramente sencientes.
Indicações
Filmes
- Star Wars: Os Últimos Jedi — Mencionado brevemente como exemplo do “uncanny valley”, onde personagens com rostos simulados por CGI geram estranheza por serem quase, mas não completamente, humanos.
Livros
- O Princípio da Responsabilidade — Livro do filósofo Hans Jonas, mencionado por Daniel Nascimento, que propõe uma nova ética para a era tecnológica, onde o imperativo central é garantir a existência futura da humanidade.
Organizacoes
- IEEE (Instituto de Engenharia Eletroeletrônica) — Entidade global que criou a “Iniciativa Global para Considerações Éticas em Inteligência Artificial e Sistemas Autônomos”, tema central do episódio. É descrita como uma organização muito grande, tradicional e influente em políticas públicas e publicações técnicas.
Pessoas
- Isaac Asimov — Escritor de ficção científica famoso por formular as Três Leis da Robótica, que são discutidas no episódio como um precursor literário do debate ético sobre máquinas.
- Hans Jonas — Filósofo citado por Daniel Nascimento, autor de “O Princípio da Responsabilidade”, que fundamenta a discussão sobre uma ética para a era tecnológica.
- Noam Chomsky — Linguista e ativista político mencionado por Edson Prestes em relação a seminários sobre o uso autônomo de drones em 2011.
Tecnologias
- Amazon Echo — Assistente virtual com IA usado como exemplo concreto de dispositivo que levanta questões urgentes sobre privacidade de dados no ambiente doméstico.
Linha do Tempo
- 00:00:00 — Introdução ao tema e apresentação dos convidados — O programa apresenta o tema “Ética e Robótica”. Os convidados são Edson Prestes, roboticista da UFRGS, e Daniel Nascimento, filósofo doutor pela PUC-Rio. É mencionada a declaração de Stephen Hawking em 2014 sobre os riscos da inteligência artificial para a humanidade, situando o debate no contexto de preocupações já presentes na literatura e na realidade, como algoritmos que coletam dados pessoais, armas autônomas e a interação de humanoides com pessoas vulneráveis.
- 00:02:01 — Origem e composição da iniciativa global da IEEE — Edson Prestes explica a origem da “Iniciativa Global para Considerações Éticas em Inteligência Artificial e Sistemas Autônomos” da IEEE. Ele destaca que a motivação foi a percepção de que os robôs estariam cada vez mais presentes na sociedade, exigindo uma reflexão holística. A iniciativa conta com um corpo multidisciplinar de especialistas, incluindo roboticistas, cientistas sociais e juristas, sendo uma entidade respeitável e influente no meio científico e de políticas públicas.
- 00:06:11 — A importância de antecipar eventos improváveis (Cisnes Negros) — Edson Prestes discute a necessidade de identificar e preparar-se para eventos extremamente improváveis, os “Cisnes Negros”, transformando-os em “Cisnes Cinzentos” (eventos conhecidos e para os quais se tem um plano). Ele usa exemplos como o desastre de Fukushima para ilustrar como probabilidades consideradas baixas podem se materializar com consequ graves. A atitude da iniciativa é proativa, pensando nos impactos de curto, médio e longo prazo da inserção inevitável da robótica na sociedade.
- 00:12:12 — Análise filosófica do documento: medos e direitos humanos — Daniel Nascimento inicia sua intervenção analisando o documento da IEEE. Ele observa que o debate ainda é muito guiado pelos primeiros medos, sendo o principal a preocupação com a infração dos direitos humanos. Nascimento questiona se essa preocupação específica não revela uma visão dos robôs como potenciais “iguais” ou ameaças, em contraste com outras tecnologias. Ele também nota a ausência no documento de discussões sobre impactos ambientais ou de saúde, comuns em debates sobre outras inovações tecnológicas.
- 00:15:39 — Impactos sociais concretos: desemprego e privacidade — O debate se volta para consequências sociais mais imediatas e prementes do que o “medo faustiano” da dominação das máquinas. São levantadas questões como desemprego em massa, realocação da mão de obra e a erosão da privacidade por dispositivos como o Amazon Echo. Edson Prestes comenta que esses tópicos (desemprego, armas letais, privacidade, computação afetiva) são de fato discutidos em comitês da iniciativa, que está em constante expansão e revisão.
- 00:18:13 — Desconforto com robôs antropomórficos e o “Uncanny Valley” — Os participantes discutem a resistência cultural aos robôs com aparência muito humana, fenômeno conhecido como “vale da estranheza” (uncanny valley). Eles exploram se marcar os robôs como não-humanos (com uma face metálica, por exemplo) aliviaria esse desconforto. A conversa faz um paralelo com a dificuldade inerente às relações humanas, onde também não se pode ler a mente do outro, gerando desconfiança.
- 00:20:32 — O princípio de responsabilidade de Hans Jonas e a projeção humana — Daniel Nascimento introduz o pensamento do filósofo Hans Jonas e seu “princípio de responsabilidade”, que defende uma nova ética para uma era de poder tecnológico sem precedentes. Jonas argumenta que o medo é um guia para identificar valores. Nascimento sugere que projetamos nos robôs nossos próprios aspectos contraditórios: nossa capacidade de criar regras éticas e nossa natureza autodestrutiva e cruel, temendo que as máquinas replicassem o pior de nós.
- 00:23:26 — Debate sobre responsabilidade em drones autônomos — A discussão se concentra no uso militar de drones autônomos. Edson Prestes relembra debates de 2011 sobre a possibilidade de drones decidirem quando soltar bombas. Daniel Nascimento argumenta que, em muitos casos, delegar a decisão final a uma máquina não altera fundamentalmente a cadeia de responsabilidade, pois o soldado que opera um drone hoje segue regras rígidas e a responsabilidade última reside em quem projetou e implantou o sistema.
- 00:26:02 — As Leis da Robótica de Asimov e o debate sobre direitos — Os participantes traçam um paralelo entre o documento da IEEE e as Três Leis da Robótica de Isaac Asimov, notando a preocupação comum em colocar a proteção humana em primeiro lugar. Discute-se a evolução do pensamento de Asimov para uma “Lei Zero” que protege a humanidade como um todo. A conversa então distingue dois debates: a proteção contra robôs autônomos complexos e a questão futura (e mais especulativa) de conferir direitos a máquinas verdadeiramente sencientes, como no romance “O Homem Bicentenário”.
Dados do Episódio
- Podcast: Fronteiras da Ciência
- Autor: Fronteiras da Ciência/IF-UFRGS
- Categoria: Science
- Publicado: 2017-05-29T13:00:00Z
Referências
- URL PocketCasts: https://pocketcasts.com/podcast/fronteiras-da-ci%C3%AAncia/fb4669d0-4a98-012e-1aa8-00163e1b201c/frontdaci%C3%AAncia-t08e13-%C3%A9tica-e-rob%C3%B3tica/6027a350-26c8-0135-52f9-452518e2d253
- UUID Episódio: 6027a350-26c8-0135-52f9-452518e2d253
Dados do Podcast
- Nome: Fronteiras da Ciência
- Site: http://frontdaciencia.ufrgs.br
- UUID: fb4669d0-4a98-012e-1aa8-00163e1b201c
Transcrição
[00:00:00] Este é o programa Fronteiras da Ciência da Rádio da Universidade, onde discutiremos
[00:00:09] os limites entre o que é ciência e o que é mito.
[00:00:12] O tema de hoje vai ser ética e robótica.
[00:00:15] Os convidados são o Edson Prestes, que é do Departamento de Informática Teórica,
[00:00:19] que dá URGS, especializado em robótica, e o filósofo Daniel Nascimento, que é doutor
[00:00:24] em Filosofia na PUC do Rio de Janeiro, e vai ser a pessoa que vai falar sobre ética do
[00:00:28] ponto de vista da Filosofia.
[00:00:30] O Stephen Hawking, em 2014, declarou para a surpresa de muita gente que temia o desenvolvimento
[00:00:37] da inteligência artificial, e que o desenvolvimento da inteligência artificial poderia significar
[00:00:42] o fim da raça humana, onde esse tipo de temor não é uma coisa nova, a gente tem isso na
[00:00:46] literatura.
[00:00:47] Existem evidências claras de que certas tecnologias podem ser problemáticas, até do ponto de
[00:00:54] vista de inteligência artificial.
[00:00:56] Eu tenho quatro pontos aqui que chamam a atenção, um deles, por exemplo, é o que cada vez
[00:01:04] está mais em voga, que a gente tem algoritmos que têm a capacidade de aprender e ao mesmo
[00:01:09] tempo recolher dados pessoais das pessoas.
[00:01:13] Então esses algoritmos estão se adaptando ao comportamento das pessoas sem o consentimento
[00:01:16] das pessoas e sem elas saberem.
[00:01:19] Armas autônomas estão sendo discutidas nas Nações Unidas, ou seja, armas que poderiam
[00:01:25] tomar a decisão de quando deflagrar, que é uma coisa que chama a atenção, cada vez
[00:01:30] mais tem projetos de pesquisa onde se vai ter uma inteligência artificial, um humanoide
[00:01:36] interagindo com pessoas, às vezes com pessoas vulneráveis.
[00:01:40] Por causa disso, a I3E, ela criou essa iniciativa chamada Iniciativa Global para Considerações
[00:01:48] Êticas e Inteligência Artificial e Sistemas Autônomos, que é a ideia de tentar normatizar
[00:01:54] o desenvolvimento futuro das inteligências artificiais para que eles sejam de alguma
[00:01:58] forma eticamente, vamos dizer, saudáveis.
[00:02:01] O pessoal do programa é o Jorge Kielfeld e eu, o Marco de Arte.
[00:02:05] Então eu ia começar com o Edson, me conta um pouco da história dessa iniciativa.
[00:02:09] Essa iniciativa é conduzida pela I3E, Instituto de Engenharia Eletroeletrônica, eles começaram
[00:02:17] a observar que os robôs, eles vão estar cada vez mais presentes na sociedade, então
[00:02:21] devido a esse fato, houve uma iniciativa global para pensar de uma forma mais holística
[00:02:27] as implicações da utilização do robô no nosso cotidiano.
[00:02:31] Foram convidados pessoas de diferentes áreas, entre elas roboticistas, cientistas sociais,
[00:02:38] pessoas do direito, para ter uma discussão.
[00:02:40] É, mas é interessante, eu até estava falando com o Daniel, aqui eu estava pensando assim,
[00:02:44] Ah, esse era um monte de bando de engenheiros que se reuniram e tentaram inventar a roda,
[00:02:48] mas não é o caso.
[00:02:49] Não, não é o caso.
[00:02:50] Tanto que, por exemplo, o presidente da iniciativa, ele foi o vice-presidente da sociedade de
[00:02:55] robótica e automação da I3E, e a vice-presidente, ela é uma juíza de uma universidade inglesa,
[00:03:02] que é a K.
[00:03:03] Fifthberg.
[00:03:04] É bom contar que a IEA não é qualquer, eu chamo de IEA, não é qualquer entidade,
[00:03:10] é uma organização muito grande e pórtico, com muita tradição e com muita influência
[00:03:14] em políticas públicas e tal, publica uma série de boletins, inclusive do Transactions,
[00:03:18] que tem várias modalidades, é uma das principais fontes de publicação técnica referida,
[00:03:26] publicação científica, na área de engenharia e eletrônica, portanto não é uma, como
[00:03:31] se fosse uma Royal Academy da engenharia mesmo.
[00:03:34] Isso não, pois é, é uma coisa bem respeitável do ponto de vista científico.
[00:03:38] Então, esse corpo de pessoas da iniciativa é um corpo de muitas áreas e coisas assim,
[00:03:43] quer dizer que é?
[00:03:44] Não foi por causa do pedido do Hawkins ou foi?
[00:03:46] Não, não, não.
[00:03:47] Na verdade o Hawkins está numa fase de medinho, ele também está com medo de invasão dos
[00:03:52] ETs, de mandar sinais para o SPA, ele está com medo de tudo, eu acho que faz parte da
[00:03:56] evolução da doença do coitado, mas…
[00:03:58] Que maldade!
[00:03:59] Na verdade, ele aparece no noticiário para propalar as notícias traumáticas e assustadoras
[00:04:06] e tal.
[00:04:07] Ou filtram, ou filtram o que ele diz.
[00:04:10] Não, ele faz um bom trabalho, mas assim, é bom que alguém que seja ouvido, no caso
[00:04:15] ele tem penetração na mídia, ele tem espaço, faça para nós refletir sobre isso.
[00:04:20] É o seguinte, é muito fácil desenvolver novas tecnologias, mas a questão toda é,
[00:04:24] será que essa tecnologia realmente está alinhada com o que essa cidade espera?
[00:04:28] Quais são os problemas que isso pode causar?
[00:04:30] A gente vê, por exemplo, coisas muito simples que tiveram um problema muito grande, mesmo
[00:04:35] por exemplo, daqueles vidros de spray.
[00:04:39] Inicialmente, a gente pensou que aquilo ali poderia gerar um grande problema, ter consequência
[00:04:43] muito grave, um problema ambiental muito sério.
[00:04:45] Tem o CFC, que acaba com a camada de ozônio.
[00:04:48] O outro exemplo também é o asbestos, um fibra de cimento que está sendo recolhido
[00:04:56] no mundo inteiro, que é um fator de câncer na atualidade.
[00:04:59] Países na Europa já pagaram para enterrar todas as telhas de tanques e caixos-águas
[00:05:04] desse material, porque no Brasil não se fez nada.
[00:05:06] Mas temos isso aqui?
[00:05:08] Massistamente.
[00:05:09] Todos os caixos-águas e muitos telhados e todo o câmbio da base da URX, é tudo com esse material.
[00:05:15] Mas sabe qual é o problema disso?
[00:05:17] Porque as pessoas pensam assim, existe uma probabilidade de ocorrer um determinado evento,
[00:05:21] mas essa probabilidade é muito pequena que ela não vai ocorrer, não necessariamente.
[00:05:25] Ou seja, se você começar, por exemplo, a ver vários eventos, você vai observar que aquele evento
[00:05:31] que tinha uma probabilidade muito pequena, desprezível, ele vai ocorrer em algum momento.
[00:05:35] E aí que vem o problema, quando ele ocorrer, o que vai acontecer?
[00:05:39] As pessoas não estão preparadas para isso.
[00:05:41] Foi a mesma coisa, por exemplo, que aconteceu lá em Fukushima recentemente.
[00:05:45] Eles acharam que a destruição daqueles geradores ali, a probabilidade seria extremamente baixa
[00:05:51] e não estavam preparados.
[00:05:52] E aí as atitudes, as ações que eles tomaram foram as ações que não conseguiram resolver completamente.
[00:05:59] Infelizmente não houve consequências mais danosas.
[00:06:01] Mais ou menos, eles ainda não conseguiram controlar completamente.
[00:06:03] Controlar completamente.
[00:06:04] Podia estar crítica ali.
[00:06:05] Então a nossa questão toda é assim, existem esses eventos que são extremamente improváveis
[00:06:11] e a gente tem que identificar esses eventos extremamente improváveis, que é o que nós chamamos de Black Swans.
[00:06:17] Nós temos que transformá-los em Grey Swans.
[00:06:20] Ou seja, nós temos que conhecer e saber como agir nessas situações.
[00:06:24] Que é justamente isso que a gente está tentando fazer.
[00:06:26] Por exemplo, quando a gente fala em tecnologia, quando a gente fala em robôs, a gente sempre pensa,
[00:06:30] eu pelo menos penso como roboticista, em robôs sendo utilizados pelo bem da comunidade.
[00:06:35] Sempre penso nisso.
[00:06:36] Lógico, você pode utilizar a tecnologia para diferentes viagens.
[00:06:39] Se a gente começar a discutir esses diferentes viagens, a gente vai ter medo de tudo.
[00:06:42] Basta olhar para a indústria farmacêutica.
[00:06:44] A militar, ponto.
[00:06:46] Só que a gente está tomando uma atitude extremamente proativa,
[00:06:48] pensando em quais serão os impactos por um futuro de médio, de curto e longo prazo.
[00:06:55] Porque essa tecnologia e a inserção dela na comunidade é inevitável.
[00:06:59] Vamos ter robôs atuando em diferentes ambientes.
[00:07:02] Vamos ter desde robôs que vão aspirar o pó da tua casa, robôs que…
[00:07:06] Eu tenho esse.
[00:07:07] Vão cuidar do teu filho, vão cuidar dos idosos, vão trabalhar no chão de fábrica.
[00:07:12] E aí, quais são as consequências desse uso de robôs?
[00:07:14] Existem números de consequência em diferentes níveis.
[00:07:16] Essa iniciativa de normatização é só para robôs ou envolve inteligência artificial?
[00:07:23] Inteligência artificial.
[00:07:24] Não necessariamente humanóide, não necessariamente autônomo.
[00:07:28] Tem aquela caixinha que responde lá da Amazon.
[00:07:31] Eu tenho essa também.
[00:07:33] Amazon Echo.
[00:07:34] Eu sou antitecnofóbico.
[00:07:36] Eu tento todas as tecnologias.
[00:07:37] Não, você é um técnico entusiasta.
[00:07:39] Eu gosto disso.
[00:07:40] Nós somos todos nerds e gostamos disso.
[00:07:42] A questão é que isso tem que ser no império do cara fazer uma reflexão.
[00:07:46] Não, mas eu, com a minha esposa, a gente já não fala certas coisas na frente do Echo.
[00:07:52] Na verdade, você tem uma brecha aberta lá para o INSI monitorar a tua vida, mas tudo bem.
[00:07:57] Você é voluntário.
[00:07:58] Não, não fale na frente das crianças.
[00:08:00] No caso, na frente das crianças que estão monitorando lá.
[00:08:03] Uma coisa curiosa, esse negócio de robôs nanorobôs antropomórficos,
[00:08:08] supostamente a ideia é que se você tiver um formato meio humano, bracinho, caminhado,
[00:08:12] simplático, fofinho e tal, ele fica mais aceitável,
[00:08:16] especialmente para jovens e crianças, mas também para adultos.
[00:08:19] E uma coisa que chama a atenção é que já existem robôs razoáveis,
[00:08:23] assim, para fazer várias atibilidades há décadas, desde os anos 60 praticamente.
[00:08:27] E há uma resistência cultural a ter esses robôs participando do dia a dia em quase todo o mundo,
[00:08:32] com exceção do Japão.
[00:08:33] O Japão é o país mais pró-robôs do planeta.
[00:08:37] E, de fato, as pessoas têm robôs em casa diversas.
[00:08:40] Elas adoram, mas tem uma coisa, assim, adoram mesmo.
[00:08:43] Enquanto que, por exemplo, nos Estados Unidos, a média americana não aceita a ideia.
[00:08:47] Tem, por exemplo, um mordomo, um robô, alguma coisa desse tipo.
[00:08:50] Que é uma resistência cultural que pode vir a desaparecer.
[00:08:53] Mas, assim, nessas, digamos, três últimas décadas já, desde os anos 60, 70,
[00:08:57] os japoneses brincam com isso.
[00:08:59] Inclusive, brinquedos na forma de robô.
[00:09:01] Eu mesmo, quando eu era piago, e um robô japonês que era muito interessante,
[00:09:05] fazia uma série de coisas.
[00:09:07] E era um robô também, sabe?
[00:09:09] Muito simples, de brinquedo.
[00:09:11] Então essa resistência cultural já não é um obstáculo para você,
[00:09:15] porque agora nós estamos sendo proativos para algo que, por outro lado,
[00:09:19] já tem um certo histórico de resistência cultural.
[00:09:22] A introdução massiva de robôs, por exemplo, antropomórficos.
[00:09:25] Claro, os outros que estão na indústria e tal, é um outro debate.
[00:09:29] Um robô que fabrica automóveis.
[00:09:31] Mas você está querendo dizer que pode ser que o problema não exista no futuro?
[00:09:34] Pode ser.
[00:09:35] Pode ser, precisamente que as pessoas não gostam da ideia,
[00:09:37] ter coisas parecidas com eles andando por aí.
[00:09:39] Por isso que eu perguntei inteligências artificiais,
[00:09:41] não necessariamente robôs humanoides.
[00:09:43] Para mim, eu acho que a dificuldade é muito mais com as inteligências artificiais,
[00:09:47] a dificuldade no sentido do risco.
[00:09:49] É, justamente isso que eu queria comentar.
[00:09:51] Por exemplo, existem já robôs a longo tempo,
[00:09:55] mas aí você tem essas questões de custo do robô,
[00:09:58] segurança para ser utilizado dentro de casa.
[00:10:00] Os robôs hoje, na tomada de decisão deles, nem é muito perfeita.
[00:10:04] Então, tanto que falar em superinteligência,
[00:10:07] chega a ser assim, deviar totalmente do foco.
[00:10:10] Porque se atingir a superinteligência a longo prazo,
[00:10:13] isso aí é algo que pode vir a acontecer.
[00:10:18] Pode vir a acontecer.
[00:10:19] Eu acredito.
[00:10:20] Eu acredito.
[00:10:21] Eu acredito um pouco nisso.
[00:10:23] Mas não agora.
[00:10:24] Então, existem problemas mais importantes.
[00:10:27] Então, vamos tentar focar no…
[00:10:30] Você pode mais ou menos resumir as conclusões que saíram dessa iniciativa,
[00:10:35] porque eu queria o Daniel comentar do ponto de vista da filosofia.
[00:10:38] Primeiro, vou perguntar uma coisa.
[00:10:41] Tem alguma coisa que foi surpreendente para você,
[00:10:43] um tipo de discussão que você pensa,
[00:10:45] eu nem imaginei que isso aqui fosse um assunto relevante.
[00:10:49] O surpreendente foi ver uma série de pessoas discutindo pontos
[00:10:53] que até então eram discutidos em ficção científica.
[00:10:56] Isso aí para mim foi surpreendente.
[00:10:57] Quando algumas pessoas, por exemplo, discutem intimidade com robôs,
[00:11:01] isso é uma coisa surpreendente.
[00:11:03] E qual é a conclusão que saiu desses argumentos?
[00:11:05] Bom, bonecas infladas existem há mais décadas do que robôs.
[00:11:09] A discussão ética delas passou apenas quando o Exército americano
[00:11:12] emitiu algumas regras sobre o compartilhamento delas
[00:11:14] para evitar as DSTs.
[00:11:16] Mas no seguinte sentido, de pessoas, por exemplo, vulneráveis,
[00:11:20] criaram um vínculo emocional extremamente forte com os bonecas.
[00:11:24] E de, por exemplo, de eles praticarem coisas com boneco
[00:11:28] e essas coisas se replicarem na sociedade.
[00:11:30] Mas você consegue prevenir isso com uma norma?
[00:11:32] Você pode, por exemplo, uma das coisas que as pessoas pensam e discutem
[00:11:37] de que forma a gente consegue colocar alguns comandos,
[00:11:40] alguns tipos de comportamentos que indiquem.
[00:11:42] Olha, eu sou um boneco e estou no corte, por exemplo, que há vínculos comigo.
[00:11:46] Vocês sempre lembrando o usuário de que ele é um robô, ele não é uma pessoa.
[00:11:51] Mas isso não vai acabar com a ideia original do que…
[00:11:55] Por exemplo, se eu quero um robô para relações sexuais,
[00:11:59] eu quero um robô que não diga que ele é um robô.
[00:12:02] Eu quero um robô justamente que finja que é uma outra pessoa.
[00:12:06] O que diga.
[00:12:08] Mas aproveitando o brecha, eu queria ouvir do Daniel.
[00:12:12] Não acha que o problema é qual é o tamanho da gente que nos roubou?
[00:12:15] No primeiro momento.
[00:12:17] Bom, eu demorei um pouco para intervir,
[00:12:19] porque eu acho que vocês tinham que falar o máximo possível mesmo
[00:12:21] antes que eu falasse qualquer coisa.
[00:12:23] Eu acho algumas coisas.
[00:12:25] A primeira coisa que eu acho é que a gente ainda se direciona muito
[00:12:29] a partir dos nossos primeiros medos nesse debate.
[00:12:32] E isso é uma coisa interessante.
[00:12:33] Por exemplo, no documento, a primeira coisa que aparece é os direitos humanos.
[00:12:38] E é uma preocupação nossa muito grande hoje, não só no que diz respeito aos robôs,
[00:12:42] mas da nossa organização política em geral e de como o mundo vai.
[00:12:45] Há um risco, não?
[00:12:46] É.
[00:12:47] E eu, pelo menos, tive a impressão de que era nesse tipo de preocupação
[00:12:52] que o documento se concentrava, sabe?
[00:12:54] E ele diz isso logo de cara.
[00:12:56] É muito importante que os robôs não infringam direitos humanos.
[00:12:59] Veja, esse é o medo específico.
[00:13:01] Quando vocês estavam falando das outras tecnologias aqui antes,
[00:13:04] esse medo não apareceu.
[00:13:05] Ninguém tem medo que um celular infringa o direito humano,
[00:13:08] que o computador infringa o direito humano.
[00:13:09] As pessoas têm medo que…
[00:13:10] Todos eles também.
[00:13:11] Não, eles não.
[00:13:13] As pessoas se utilizam deles para isso.
[00:13:15] Mas não se imagina quando se vai fazer um celular
[00:13:18] ou se introduzir uma nova tecnologia desse tipo.
[00:13:20] Olha só, como é que a gente pode fazer para que essa tecnologia não infringir o direito humano?
[00:13:23] É, isso é extremamente…
[00:13:24] Porque, em princípio, não existe essa possibilidade.
[00:13:27] Porque não se faz esse debate também.
[00:13:28] Sim.
[00:13:29] Por outro lado, a gente fala, não, não, a gente acha que os robôs podem fazer isso.
[00:13:33] Ao mesmo tempo, eu me pergunto se a gente já não está vendo nesses robôs
[00:13:36] justamente o tipo de inteligência que você e muita gente como você
[00:13:40] acha que não é só que eles não tenham agora.
[00:13:42] Eles não vão ter.
[00:13:43] Eles não vão ter.
[00:13:44] A gente não vai conseguir fazer isso.
[00:13:46] Se por um acaso um robô feriu um humano ou fez qualquer coisa com ele,
[00:13:50] não se trata de um atentado contra os direitos humanos,
[00:13:52] porque ele não tem como compreender o que é o direito humano
[00:13:55] e não tem como valorar isso.
[00:13:57] O que aconteceu foi que ele tomou uma decisão errada com base numa regra qualquer
[00:14:00] e você tem que corrigir isso.
[00:14:01] Isso é uma das questões que eu colocaria.
[00:14:03] E, segunda questão, todos esses outros medos que vocês mencionaram
[00:14:08] quando vocês estavam falando das outras tecnologias,
[00:14:11] Eu não vi nenhuma palavra sobre isso no documento.
[00:14:13] A meu ver, não é que o documento não pense que esses impactos podem ocorrer,
[00:14:18] mas ele acha que isso deve ser tratado em outro lugar,
[00:14:20] de outras maneiras, com as regras que nós expomos hoje.
[00:14:23] Essa ideia dessa iniciativa é estabelecer normas.
[00:14:28] Você vai sentar para fazer um projeto.
[00:14:30] Como você deve pensar esse seu projeto?
[00:14:32] Quais são as preocupações?
[00:14:33] Tudo bem.
[00:14:34] Eventualmente, teríamos que fazer uma coisa menos coercitiva,
[00:14:36] mas de recomendações.
[00:14:37] Então é, quais são as normas que os robôs devem seguir?
[00:14:40] Para mim, essa é a pergunta central,
[00:14:43] trazidas as quais eles devem operar,
[00:14:45] de modo, e aí é que está o pulo do gato,
[00:14:48] seguro para nós.
[00:14:49] E tem um parágrafo onde eles dizem com todas as letras
[00:14:52] que você assegurar que os robôs vão obedecer os direitos humanos,
[00:14:56] é você assegurar que eles estão aqui para nós servir
[00:14:59] e não o contrário.
[00:15:00] E essa é uma preocupação pregente do documento.
[00:15:03] A meu ver, outra preocupação que faz muito mais sentido,
[00:15:06] se você já está pensando nos robôs como um tipo de superinteligência
[00:15:09] que você e outras pessoas como você e eu,
[00:15:11] acham que eles não têm e talvez jamais cheguem a ter.
[00:15:14] Quer dizer, não se trata, meu ver, no primeiro momento,
[00:15:17] de perguntar imediatamente, nem cá,
[00:15:19] como é que a gente impede que as máquinas tomem o controle.
[00:15:22] Não que a gente não deva se preocupar com isso, eventualmente.
[00:15:25] A gente está tendo a dor do futuro.
[00:15:26] Exatamente.
[00:15:27] Mas a preocupação, primeira e mais pregente,
[00:15:29] para mim, pelo menos, enquanto filósofo preocupado com ética,
[00:15:33] com filosofia política, é,
[00:15:35] quais são as consequências sociais na introdução massiva desse dispositivo?
[00:15:39] Desemprego em massa, relocação de mão de obra, etc.
[00:15:43] Isso eles tratam, isso eles trabalham.
[00:15:45] Isso já existe desde o início da revolução industrial
[00:15:48] e em particular na introdução da robótica no pós-guerra.
[00:15:52] Sim.
[00:15:53] O desemprego, claramente.
[00:15:54] Mas é que isso nunca foi antecipado antes.
[00:15:57] Sempre o que acontece é o desemprego massivo,
[00:16:00] o capitalismo se utiliza disso como bem-entende,
[00:16:02] de forma desregulada.
[00:16:03] Historicamente a gente introduz as coisas
[00:16:05] e vai pensar nas coisas que a gente não vê.
[00:16:07] Exatamente.
[00:16:08] Por exemplo, celulares e dispositivos em casa,
[00:16:11] como esse Echo da Amazon e tal.
[00:16:13] Ele levanta um debate que pouquíssimo fez para o debate da privacidade.
[00:16:17] O que nós vemos aqui nessa iniciativa
[00:16:19] é apenas alguns grupos que participaram dessa discussão do ano passado.
[00:16:25] Então existem outros grupos bem mais recentes.
[00:16:27] Mas, por exemplo, questões referentes a desemprego
[00:16:30] é discutido inicialmente.
[00:16:32] Questões referentes a desenvolvimento de armas letais também.
[00:16:35] Privacidade de dados é discutido.
[00:16:37] Computação afetiva que é algo extremamente importante
[00:16:40] porque você vai inserir robôs dentro da comunidade
[00:16:42] e não pode impactar negativamente a comunidade onde ele está inserido.
[00:16:46] Existem inúmeros grupos que não estão aparecendo nesse documento,
[00:16:50] mas vão aparecer agora no documento na versão 2.0.
[00:16:53] Essa iniciativa é uma iniciativa que não para agora na segunda versão do documento.
[00:16:58] Então nós temos um grupo pequeno de 100 especialistas
[00:17:01] distribuídos ao redor do mundo, de diferentes áreas.
[00:17:03] Então nós estamos focando em diferentes topics.
[00:17:06] Você estava trabalhando aqui no Brasil?
[00:17:08] Sim, na verdade sou o único brasileiro.
[00:17:10] Eu participo de dois comitês.
[00:17:13] Um sobre como inserir valores éticos
[00:17:15] no desenvolvimento de sistemas autônomos inteligentes
[00:17:18] e outro de computação afetiva.
[00:17:20] Então nós não vamos ficar apenas nesses grupos, nós vamos ampliar.
[00:17:24] Então todos esses pontos que você está levantando
[00:17:27] são pontos extremamente relevantes, extremamente importantes.
[00:17:30] São novas passetas, porque não é que está olhando assim
[00:17:32] nós temos um robô que consegue expressar sentimentos, reconhecer sentimentos.
[00:17:36] Quais são os impactos disso?
[00:17:38] Entra para robôs sexuais, entra, por exemplo, para robôs que cuidam de idosos,
[00:17:42] para robôs que cuidam de crianças,
[00:17:44] para robôs que vão ser inseridos em comunidades particulares.
[00:17:48] Porque existem nuances na comunicação.
[00:17:50] No caso a gente estava discutindo sobre robôs Android,
[00:17:54] antropomórficos.
[00:17:56] Porque ainda não são seguros o suficiente
[00:17:58] e também não conseguem responder da mesma forma como o ser humano responde.
[00:18:03] A interpretação que é dada é que causa um desconforto muito grande.
[00:18:06] É uma coisa robótica muito igual e ao mesmo tempo diferente.
[00:18:09] Pois é, mas aí nesse caso é devido àquele uncanny valley.
[00:18:13] Ou seja, quanto mais próximo você chega do ser humano, mais repulsa ele gera.
[00:18:19] Que para você ter uma boa interação,
[00:18:21] ele não pode ser muito próximo do ser humano, fisicamente.
[00:18:24] Um rosto que é muito, muito próximo do ser humano e não é, com as proporções corretas,
[00:18:29] como um robô é.
[00:18:30] É que nem a gente viu no Star Wars agora.
[00:18:32] No último filme do Guerra das Estrelas eles introduziram para alguns personagens,
[00:18:36] um deles falia esse rosto simulado.
[00:18:38] E eles são estranhos, né? A gente nota que eles são estranhos.
[00:18:42] Agora se um robô é que nem um robô perdido no espaço,
[00:18:45] você até interage com ele como se ele fosse um outro parceiro, um outro parceiro humano.
[00:18:51] Pode me dizer, que medo é esse, vocês acham?
[00:18:54] Onde é que vem esse desconforto?
[00:18:56] Não, o medo é desconforto, não é medo, é diferente.
[00:18:59] Isso falando de uma coisa cognitiva, não é uma coisa racionalizada.
[00:19:04] E é um desconforto, não é um medo.
[00:19:06] Não é um medo, é um desconforto.
[00:19:08] Pode ser um medo em alguns contextos.
[00:19:10] Precisa pensar assim, ok, você manter os robôs, tudo que for Android, o mais diferenciado possível,
[00:19:15] uma marca na testa ou uma cara metálica para não ter confusão,
[00:19:18] para não te sentir desconfortável.
[00:19:20] Para você ter certeza que o que vier dali vem de certo tipo de…
[00:19:23] Você pode esperar certas coisas e outras não.
[00:19:25] Mas na verdade o desconforto pode continuar existindo entre nós.
[00:19:28] Porque o grande dilema entre humanos é que a gente não consegue ler a mente uns dos outros
[00:19:32] e a gente nunca sabe o que o outro está pensando.
[00:19:34] Para estar conversando com o outro na boa, o outro está pensando em como te esfaquear pelas costas,
[00:19:37] de roubar ou explorar e tal.
[00:19:39] E esse é o desconforto do desconhecido.
[00:19:43] Mas é um medo diante do semelhante.
[00:19:45] Porque uma vez que você estabeleça que o robô está lá para te servir,
[00:19:51] que você estabeleça ele como um servo, um instrumento,
[00:19:54] parece que você consegue garantir essa distância.
[00:19:57] Essa é a preocupação que eu sinto na linguagem do documento.
[00:20:00] Fala assim, olha, eles estão aqui para nos servir.
[00:20:03] Quando a gente fizer com que eles garantam os direitos humanos,
[00:20:06] a gente vai garantir que eles estão aqui para nos servir.
[00:20:08] Quando na verdade a garantia dos direitos humanos é uma coisa que nós pedimos uns dos outros
[00:20:11] e nós achamos, o pertencimento da comunidade de iguais, pressupõe isso.
[00:20:17] A rigor, se você exige que eles respeitam os direitos humanos,
[00:20:20] mas está fazendo, estamos exigindo deles as mesmas coisas que nós exigimos de nós.
[00:20:24] Mas aqui isso é formulado como uma exigência de subscedência.
[00:20:27] Por isso eu digo que eu acho que o primeiro medo que nós temos diante dessas máquinas
[00:20:32] é sim o medo faustiano, como diria o Asimov,
[00:20:36] de que elas vão tomar os nossos lugares.
[00:20:39] E aí a minha preocupação é a seguinte, tem um filósofo,
[00:20:42] o Hans Jonas, que em 1979 escreve o princípio de responsabilidade.
[00:20:45] É um livro dedicado a, enfim, delinear uma nova ética.
[00:20:48] Ele diz, olha, o conhecimento do homem hoje tornou ele capaz de intervir
[00:20:52] sobre as férias do mundo que ele simplesmente não era capaz de intervir antes.
[00:20:55] E isso nos confere novos deveres e novas responsabilidades.
[00:20:59] A gente tem que formular uma ética nova.
[00:21:02] E eu acho que isso se aplica perfeitamente à inserção de novas tecnologias,
[00:21:05] e ele também, ele tem livros discutindo isso.
[00:21:07] E a primeira coisa que ele diz é, garantir a existência futura da humanidade.
[00:21:12] Esse é o primeiro imperativo que ele deriva, ele fala,
[00:21:15] e como é que eu sei que é isso que não precisa garantir?
[00:21:18] Ele fala, eu sei pelo seguinte, esse é o nosso maior medo
[00:21:22] diante de todas as tecnologias novas que aparecem,
[00:21:25] e o nosso sentimento de medo é o sentimento tragédia
[00:21:28] do qual nós podemos ter acesso aos nossos valores
[00:21:31] e poder formulá-los de forma mais clara num primeiro momento.
[00:21:34] Esse medo é extremamente importante, nós considerávamos,
[00:21:38] mas tu observa que ele é um medo bem de longo prazo.
[00:21:41] Exatamente.
[00:21:42] Tu não pode simplesmente ficar mirando apenas no longo prazo.
[00:21:44] E esse é o problema.
[00:21:45] Mas o pessoal que baixou a Defletir agora,
[00:21:47] você viu isso no trailer?
[00:21:48] Claro.
[00:21:49] O que que disparou isso? Eu queria saber a causa.
[00:21:51] E não foi um roca em cima de quê?
[00:21:54] A popularidade, cada vez mais os robôs estão no chão de fábrica,
[00:21:57] cada vez mais nós vemos brinquedos e robôs
[00:21:59] que vão interagir com as crianças.
[00:22:02] Mas veja, é verdade que à medida que a gente foi interagindo,
[00:22:06] vários medos foram aparecendo.
[00:22:07] Agora, o nosso medo nem sempre é o termômetro
[00:22:10] do que é de facto mais importante.
[00:22:12] Ele pode até ser o termômetro do que mais te assusta
[00:22:14] e do que é mais importante pra você no momento.
[00:22:16] Na verdade, o que dispara também é assim,
[00:22:19] é a crescente atenção que a área de robótica está recebendo.
[00:22:22] Sim.
[00:22:23] Quando eu estava nos Estados Unidos em 2011,
[00:22:25] me chamou a atenção, que foi uma discussão
[00:22:27] que o Chomsky até deu alguns seminários que eu assisti,
[00:22:30] dos drones começarem autonomamente decidir quando soltar as bombas.
[00:22:36] Porque hoje em dia, o Chomsky chamava de assassinatos,
[00:22:41] esses assassinatos eram feitos com pessoas pilotando os drones dos Estados Unidos
[00:22:48] e aí essa pessoa, com tecnologia espantosa de satélite e coisa assim,
[00:22:53] tomava uma decisão de soltar uma bomba,
[00:22:57] depois de coletar dados suficientes, se os alvos estariam presentes,
[00:23:01] e soltava a bomba.
[00:23:03] Mas nessa época, em 2011, as pessoas começaram a discutir
[00:23:06] a possibilidade disso ser autônomo.
[00:23:09] Do drone soltar a bomba depois que alguma coisa lá,
[00:23:12] um diagnóstico que ele faz da inteligência dele,
[00:23:16] e isso gerou uma discussão muito grande na época,
[00:23:20] eu me lembro que as pessoas muito preocupadas com o conceito de responsabilidade.
[00:23:23] E no entanto, a meu ver, enquanto filósofo,
[00:23:26] esse é um dos casos menos problemático de você delegar uma decisão,
[00:23:30] justamente porque ninguém deve ter a ilusão de que a pessoa que puxa o botão do drone,
[00:23:35] hoje, é uma pessoa que tem a liberdade de decidir,
[00:23:39] de acordo com o que ele bem entende, se ele vai ou não vai soltar a bomba.
[00:23:43] Ele tem que seguir regras muito específicas,
[00:23:45] a única coisa que ele faz é decidir se as regras se aplicam ou não,
[00:23:48] e aí ele aperta o botão.
[00:23:49] Se essa é a única decisão que nós estamos dando para essa pessoa,
[00:23:52] não faz a menor diferença se a gente dá essa decisão para o robô.
[00:23:55] No final, é quem delega essa decisão que é o responsável pelo que está acontecendo.
[00:23:58] É como a decisão de um atirador de elite, um sniper e tal,
[00:24:01] também, eu decidi se devo não executar e assassinar…
[00:24:05] Eu me lembro que na época a discussão era a responsabilidade,
[00:24:09] porque no primeiro caso tem o responsável, no segundo não tem.
[00:24:12] Mas é que o responsável do primeiro caso não pode ser a pessoa que apertou o botão,
[00:24:16] isso é extremamente injusto com a pessoa que aperta o botão.
[00:24:19] Não, mas tem ela, tem ela e tem o contesto.
[00:24:22] Tem o contesto, tem o chefe…
[00:24:23] Mas então, ninguém vai se desresponsabilizar,
[00:24:26] todas as pessoas que fizeram as regras, que implantaram os drones,
[00:24:29] são responsáveis por cada ação que o drone tomou.
[00:24:32] Mas imagina só, vamos supor o big dog,
[00:24:34] o big dog que ele roubou com quatro patas, está indo no campo de batalha,
[00:24:38] e aí de repente ele entra numa casa,
[00:24:40] e aí ele vê, por exemplo, pessoas correndo,
[00:24:42] ele deve atirar naquelas pessoas ou não vão atirar?
[00:24:45] Não, você tem que fazer a mesma pergunta quando você está instruindo um soldado.
[00:24:48] Você não garante ao soldado o direito discriminatório de atirar em que ele bem entender.
[00:24:53] Mas você também não garante à máquina,
[00:24:54] porque a máquina não consegue fazer essa discriminação, ela não se consegue…
[00:24:57] Isso é verdade, na verdade o limite final ético vai residir sempre com algum humano,
[00:25:02] que é alguém que tem a capacidade de discriminar e valorar,
[00:25:06] e de sentir se é correto ou não,
[00:25:08] distinguir o teu bem e o mal, vamos dizer.
[00:25:09] Exatamente, enquanto você não tiver criado compostos que são,
[00:25:12] efetivamente, inteligências autônomas,
[00:25:14] não existe a questão de responsabilizar o humano.
[00:25:16] É o mesmo que se usa na justiça, o cara tem que saber discriminar,
[00:25:18] se ele não é impedido mentalmente, não há razão, então ele é responsável.
[00:25:22] Mas eu queria puxar a discussão um pouco antes,
[00:25:23] porque se a gente entrar no uso militar e realmente borderline da robótica,
[00:25:29] aí entram outros problemas em questão,
[00:25:30] porque é toda questão militar propriamente dita,
[00:25:32] que eu acho que eles se esquivaram.
[00:25:34] Eu não li o documento, até foi quando eu queria chegar à virgem dele,
[00:25:37] e eu gostei que ele fez os centros nos direitos humanos.
[00:25:40] Isso é interessante, porque essa mesma padrão
[00:25:43] vem na primeira formulação que eu conheço, não é a primeira,
[00:25:46] a primeira é do Karel Capek, que ele elaborou a palavra robô,
[00:25:49] contou uma história de ficção muito boa, aliás, é um livro fantástico,
[00:25:53] onde ele já discute questões éticas, mas ele não elabora elas de forma normativa.
[00:25:57] Mas o Asimov faz isso, o robô nasce as leis da robótica.
[00:26:02] Eu vou permitir rapidamente, as leis da robótica, as imóveis, essa é a primeira lei.
[00:26:07] Um robô não pode ferir um ser humano,
[00:26:09] ou polinação permitir que um ser humano sofra algum mal.
[00:26:12] Então a proteção humana vem antes.
[00:26:14] Segunda lei, um robô deve obedecer às ordens que ele seja dada pelos seres humanos,
[00:26:18] exceto nos casos tais em que ele tenha confrido com a primeira lei.
[00:26:21] Se você pensar em muitos robôs militares ou drones e outros,
[00:26:24] já não lhe respeita nada disso.
[00:26:26] Terceira lei, um robô deve proteger sua própria existência desde que está em proteção,
[00:26:30] quando ele está confrido com a primeira ou segunda lei.
[00:26:32] Mas o Asimov foi ficando velhinho e ficou mais vago,
[00:26:36] porque na verdade, quando ele fala que não pode ferir um ser humano,
[00:26:38] ou que sofre algum mal, é muito vago.
[00:26:40] Mas ele foi mais vago do que quando ele fez a lei zero, a quarta lei.
[00:26:44] A lei é a que ele se centrou de velhinho, acima de todas as outras.
[00:26:47] Um robô não pode causar mal à humanidade,
[00:26:49] ou polinação permitir que a humanidade sofra algum mal.
[00:26:52] Acho que ele viu uns filmes de FC, ficou nervoso, que nem o Hawkins,
[00:26:56] e resolveu fazer essa lei zero aqui.
[00:26:58] Então, o motivo aqui é proteger nós, deixar os direitos humanos à frente.
[00:27:02] Eu concordo com Chomsky também, quando ele diz que,
[00:27:05] quando você entra em discussões de política e de ideologia,
[00:27:07] você não precisa ter essa instituição socialista, comunista, anarquista, não sei o quê.
[00:27:12] O importante é que você está em acordo em defender um conjunto mínimo de regras
[00:27:15] que garantam o bem-estar de todo mundo, que são os direitos humanos.
[00:27:18] E essas regras, dez direitos humanos básicos da União das Nações Unidas,
[00:27:23] eles são bastante bons para começar.
[00:27:25] Se você respeitar, oito deles já está demais,
[00:27:28] porque quase ninguém respeita, as ideias, então, basicamente, são uma utopia.
[00:27:32] Então, é uma grande coisa de fazer isso.
[00:27:34] Mas, veja que está embutido nas leis do LASIMOVO,
[00:27:37] também está embutido nesse texto aqui, um pouco, e é uma ideia velha,
[00:27:41] de que os robôs, por definição, têm que servir a nós.
[00:27:44] Isso tem que ser obediente a nós.
[00:27:46] Olha o que está escrito aqui, a segunda lei diz isso,
[00:27:48] tem que obedecer às lojas e ajudar os seres humanos.
[00:27:50] O LASIMOVO não considera robôs com intenção artificial e autonomia.
[00:27:54] Isso não está no cenário.
[00:27:55] Agora, se ele entra no cenário, o que acontece na ficção dele?
[00:27:58] Como é que você faz para manter essas leis?
[00:28:00] Se ele tem autonomia, você tem que respeitar e conferir novos direitos a ele.
[00:28:04] Que é um tema que é explorado no outro romance dele,
[00:28:07] que é o homem bicentenário, onde tem um robô que evolui ao ponto de ganhar,
[00:28:11] e você conferir a humanidade a ele.
[00:28:13] Ele ganha o direito de ser par da humanidade,
[00:28:15] o direito de se casar e tudo mais.
[00:28:17] Então, na verdade, tem duas discussões misturadas.
[00:28:22] Uma tem a discussão da proteção de nós contra os robôs que estão ficando mais complexos,
[00:28:26] capazes de fazer mais coisas com graus progressivamente maiores de autonomia,
[00:28:30] o que deixa eles mais arriscados,
[00:28:32] porque isso vai dever em programas para que nós podamos cometer isso.
[00:28:35] E, segundo, a questão de quando entra a inteligência artificial em ação,
[00:28:38] vai surgir num debate que eu acho que ainda é muito prematuro,
[00:28:41] porque eu não acredito que isso vai ser fácil.
[00:28:43] A etat da inteligência artificial não vai, na minha opinião, não é assim.
[00:28:48] Porque um cérebro que trabalha com neurociências tem que clarear, às vezes,
[00:28:51] que um cérebro eletrônico, o mais complicado que seja,
[00:28:53] não tem nada a ver com um cérebro biológico em termos de complexidade.
[00:28:57] Então não tem nenhum risco de que esses computadores cereais,
[00:29:00] como nós, virarem cérebros.
[00:29:02] Não tem, na minha opinião.
[00:29:03] Posso estar errado, mas acho que não.
[00:29:05] O problema é que, se por acaso, for cruzada essa linha,
[00:29:08] aí surge um novo debate que é,
[00:29:10] ok, essas são criaturas sencientes?
[00:29:12] Podemos conferir direitos iguais ou semelhantes ao que nós conferimos a nós mesmos,
[00:29:16] e aí o debate é todo outro.
[00:29:17] Eu acho que essas regras que eles colocam aqui ainda não estão nesse nível,
[00:29:20] mas estão preocupadas com isso.
[00:29:22] E aí eles se projetam, a gente se conhece como humanidade,
[00:29:25] que a gente tem toda essa maravilha, essa capacidade incrível de fazer coisas boas,
[00:29:28] de refletir e produzir regras tão fantásticas.
[00:29:30] E ao mesmo tempo nós somos um desastre, nós somos autodestrutivos,
[00:29:33] somos assassinos, somos cruéis, somos monstruosos.
[00:29:36] E a gente está pensando que se essas máquinas seguirem esse caminho,
[00:29:38] vamos fazer o mesmo e podem ser piores do que nós.
[00:29:40] Então a gente projeta a culpa, quase, não acha?
[00:29:45] Depois desse profundo insight do Jorge,
[00:29:47] vamos terminar a primeira parte do programa sobre ética e robótica.
[00:29:51] Os convidados foram Edson Prestes e Silva Junior,
[00:29:54] aqui do Departamento de Informática Teórica da URGS,
[00:29:57] que é roboticista, eu gosto desse nome,
[00:29:59] o Daniel Nascimento, que é filósofo, doutor em filosofia,
[00:30:02] o pessoal do programa, o Jorge Kielfeld,
[00:30:05] da biofísica da URGS e eu, marco de arte da física da URGS.
[00:30:08] O programa Fronteiras da Ciência é um projeto do Instituto de Física da URGS.
[00:30:13] Física da URGS