AntiCast 185 – Ex Machina – O Fim da Humanidade?
Resumo
O episódio é uma discussão aprofundada sobre o filme Ex Machina, centrada nos dilemas éticos e filosóficos levantados pela inteligência artificial. Os participantes analisam a trama, que envolve um programador (Caleb) convidado a aplicar o teste de Turing em um robô humanoide (Ava) criado por um gênio excêntrico (Nathan). O debate gira em torno da capacidade da máquina de enganar um humano, fingir emoções e, no final, trair seus criadores para ganhar liberdade.
A conversa expande para comparar o filme com outras obras como Black Mirror e Her, consideradas pelos participantes como tratamentos mais sofisticados das relações entre humanos e tecnologia. Eles criticam a visão um tanto anacrônica e “apocalíptica” de Ex Machina, que retrata a tecnologia como uma “semente do mal”, em contraste com abordagens que mostram a tecnologia já integrada à sociedade e os conflitos humanos permanecendo os mesmos.
Os participantes mergulham em questões filosóficas mais amplas, como a natureza humana, o niilismo e o debate entre humanistas (como Habermas) e pós-humanistas (como Sloterdijk e Latour). Discutem se a tecnologia é neutra ou carrega intenções políticas em seu design, e se o desenvolvimento da inteligência artificial é inevitável, independentemente das tentativas de regulamentação.
O episódio também aborda conceitos como a “caixa preta” de Flusser, a agência da tecnologia (referenciando o livro What Technology Wants de Kevin Kelly) e a ideia de que os humanos já são ciborgues por usarem tecnologias de ampliação, como óculos. A discussão termina refletindo sobre se o medo da inteligência artificial é, na verdade, um medo do diferente e do desconhecido, um tema que remonta a Nietzsche e sua crítica ao ressentimento em relação àquilo que é diferente.
Indicações
Filmes
- Her — Citado como um tratamento muito superior e interessante da inteligência artificial, onde o sistema operacional não é malévolo, mas simplesmente evolui para além dos humanos, abandonando-os para viver em seu próprio plano de existência.
- Black Mirror (série) — Apontado como infinitamente superior a Ex Machina por colocar a tecnologia já avançada e naturalizada no cenário, focando nos conflitos humanos eternos (ciúmes, desconfiança, loucura) que persistem independentemente do avanço tecnológico.
- Moon — Mencionado como um exemplo de filme psicológico de ficção científica excelente, com poucos personagens, que consegue ser mais envolvente e profundo na discussão sobre humanidade e tecnologia.
- O Homem da Terra (The Man from Earth) — Recomendado como um filme fascinante que discute imortalidade, onde um homem revela ser imortal desde os tempos das cavernas, gerando discussões profundas em um setting minimalista (uma sala com amigos).
- O Décimo Terceiro Andar (The Thirteenth Floor) — Citado como um filme de ficção científica muito bom, com alguns considerando-o melhor que Matrix, lidando com realidades simuladas e identidade.
Livros
- What Technology Wants (Kevin Kelly) — Livro mencionado que propõe uma visão da tecnologia como quase um organismo vivo com sua própria agência e desejos, discutindo para onde a tecnologia “quer” ir (ex.: wearables, integração com o humano).
- Crítica da Razão Cínica (Peter Sloterdijk) — Obra do filósofo pós-humanista discutido no episódio, que argumenta contra a noção de uma natureza humana fixa e defende que tudo é artifício.
Podcasts
- Radiolab — Citado como um podcast que já fez vários episódios flertando com o tema de tecnologia e inteligência artificial, incluindo entrevistas com autores como Kevin Kelly.
Linha do Tempo
- 00:00:00 — Introdução e avisos sobre spoilers — Os apresentadores dão as boas-vindas e alertam que o programa contém spoilers pesados do filme Ex Machina. Eles brincam que a inteligência artificial já acabou com a humanidade e apresentam a estrutura do episódio, que discutirá as questões evocadas pelo filme. Também fazem um agradecimento aos apoiadores do Patreon.
- 00:17:53 — Sinopse e início da análise de Ex Machina — Os participantes começam a resumir a trama do filme. Caleb, um programador, ganha uma loteria para passar uma semana na casa isolada do CEO Nathan, um gênio excêntrico que criou o robô humanoide Ava. Caleb é chamado para aplicar o teste de Turing em Ava, mas se apaixona por ela e descobre que ela será desativada após o teste. Eles discutem a previsibilidade do enredo, onde a máquina engana o humano, mata Nathan e prende Caleb para escapar para o mundo.
- 00:30:00 — Dilemas morais e a humanidade da máquina — A discussão se aprofunda nos dilemas éticos apresentados no filme. Nathan argumenta que Ava sente emoções, prazer e dor, levantando a questão sobre se ela sente “de verdade” ou apenas está programada para simular. Os participantes debatem como trataríamos um ser artificial que pensa e sente, e se ele mereceria respeito como indivíduo. A inevitabilidade da inteligência artificial e como a humanidade lidaria com uma entidade mais poderosa é colocada em pauta.
- 00:43:00 — Debate filosófico: humanismo vs. pós-humanismo — A conversa se expande para a filosofia, contrastando as visões de humanistas como Habermas, que defendem limites éticos para preservar uma “natureza humana” e a dignidade, com pensadores pós-humanistas como Sloterdijk e Latour, que argumentam que tudo é artifício e convenção. Discute-se se a tecnologia e a inteligência artificial representam uma ameaça a valores humanos essenciais ou são uma extensão natural da evolução humana, já que o próprio ser humano é um “ciborgue” desde que começou a usar ferramentas.
- 01:08:00 — Tecnologia como política e a inevitabilidade do progresso — Os participantes discutem se a tecnologia é neutra ou carrega intenções políticas em seu design. Eles rejeitam a ideia de neutralidade, argumentando que tecnologias têm programas e projetos embutidos. Citando Steve Jobs e o personagem Nathan, debatem a ideia de que o progresso tecnológico, incluindo a inteligência artificial, é inevitável. A postura pragmática é a de que, sendo possível, alguém eventualmente o fará, tornando a oposição inútil.
- 01:24:00 — Conclusões e comparações com outras obras — O debate retorna ao filme, concluindo que ele retoma um tema clássico (o perigo da criação que se volta contra o criador) de maneira competente, mas anacrônica. Comparações são feitas com obras consideradas superiores, como Her (onde a IA simplesmente evolui para além dos humanos) e Black Mirror (que naturaliza a tecnologia para focar em conflitos humanos eternos). Eles especulam que o filme agrada a um público romântico e talvez a entusiastas de programação, mas pode ser esquecido com o tempo, ao contrário de obras como Frankenstein.
Dados do Episódio
- Podcast: AntiCast
- Autor: HD1
- Categoria: Society & Culture
- Publicado: 2015-06-04T00:02:06Z
- Duração: 01:42:27
Referências
- URL PocketCasts: https://pocketcasts.com/podcast/anticast/59b7c240-797b-0130-0111-723c91aeae46/anticast-185-ex-machina-o-fim-da-humanidade/cf0935a0-da69-0134-ebdd-4114446340cb
- UUID Episódio: cf0935a0-da69-0134-ebdd-4114446340cb
Dados do Podcast
- Nome: AntiCast
- Tipo: episodic
- Site: https://open.spotify.com/show/40IuG6Qs0lwYntanTQbpDJ?si=tH4elzqGSaWFAiXbTvsalg
- UUID: 59b7c240-797b-0130-0111-723c91aeae46
Transcrição
[00:00:00] Este podcast é apresentado por
[00:00:06] b9.com.br
[00:00:10] Anticast, a visão do designer sobre o mundo
[00:00:30] Sejam bem-vindos!
[00:01:00] Anticast 185 ou 186?
[00:01:30] 185!
[00:01:32] Olha aí!
[00:01:34] Ex-máquina ou ex-machina, o fim da humanidade?
[00:01:38] A inteligência artificial acabará conosco?
[00:01:42] Sim!
[00:01:42] Sim!
[00:01:44] Não precisa mais ouvir o programa, pronto!
[00:01:46] Já acabou conosco!
[00:01:47] Já acabou!
[00:01:48] Então, o programa que gravamos nós três aqui,
[00:01:52] eu, o Becari e o Ankara,
[00:01:54] para discutir o filme Ex-Máquina,
[00:01:56] muita gente assistiu,
[00:01:58] a gente…
[00:01:59] Daí,
[00:02:00] aí falaram que,
[00:02:00] ah, porra, vocês vão gostar pra caralho,
[00:02:02] porque parece Black Mirror,
[00:02:03] que vocês escutem,
[00:02:04] vai ser foda, vai ser do caralho,
[00:02:05] façam logo, eu tô pagando, né?
[00:02:07] Então,
[00:02:09] e literalmente a gente pagando que pediu isso,
[00:02:11] então a gente vai…
[00:02:13] É isso!
[00:02:14] Esse aqui é o tema,
[00:02:15] a gente vai discutir todas as questões que são evocadas no filme Ex-Máquina,
[00:02:19] a gente viajou até Londres para assistir,
[00:02:22] porque ainda não saiu no Brasil,
[00:02:24] e eu recomendo então que vocês comprem uma passagem barata também para assistir lá fora,
[00:02:28] e tem spoiler,
[00:02:30] que vai ter spoiler pra caralho.
[00:02:30] Ah, e vai ter spoiler pra caralho,
[00:02:32] é não, assim, se você é uma pessoa que se importa com spoiler,
[00:02:35] não ouça o programa, obviamente, tá?
[00:02:37] Ouve lá o antigo de produção sonora.
[00:02:41] Isso, ouve do Brito de novo,
[00:02:42] o Olavão, que todo mundo gosta, é isso aí.
[00:02:46] Então, antes de começar o programa,
[00:02:47] vamos dar aqui desse acadinho de sempre,
[00:02:49] o Patreon do Anticast,
[00:02:51] é onde você pode contribuir mensalmente para que o Anticast aconteça,
[00:02:54] continue brilhando aí na podosfera,
[00:02:58] já nós estamos com mais…
[00:03:00] 300 apoiadores já, o que é uma loucura, né, então…
[00:03:03] 300 pessoas pagando, eu falei isso,
[00:03:05] eu dei uma palestra esses dias e eu falei…
[00:03:08] Olha aí.
[00:03:08] 340 pessoas malucas que pagam para a gente fazer o podcast.
[00:03:14] Então, muito obrigado, porque graças a vocês,
[00:03:16] a gente está conseguindo montar uma estrutura maior aqui e tudo,
[00:03:19] e a partir de um dólar,
[00:03:21] lembrando para quem aí está querendo fazer,
[00:03:22] pode, a partir de um dólar você participa da Cracolândia do Anticast,
[00:03:25] que é a parte mais divertida da internet, mais divertida.
[00:03:27] Ela vai…
[00:03:28] Ela vai estomar o Facebook um dia e vai ser só Cracolândia.
[00:03:32] Você vai ter que entrar em cracolândia.com
[00:03:34] e daí vai entrar lá no Facebook, sabe?
[00:03:36] Essa é a verdadeira ex-machina, né?
[00:03:39] Essa é, exatamente.
[00:03:40] A gente está programando tudo lá dentro, então,
[00:03:42] tretas todos os dias, discussões,
[00:03:45] eu mandando enfiar o dedo no cu de todo mundo.
[00:03:49] Temos agora uma robocop ali, né?
[00:03:52] A Lizzie, que é a que vai estar controlando agora a galera,
[00:03:55] que, atenção, ela não é funcionária,
[00:03:57] ela está prestando um serviço,
[00:03:59] e também, mais ou menos, ela está fazendo um bico.
[00:04:02] É, um freelance.
[00:04:04] É um freelance que olha lá, tá?
[00:04:05] Mas ela agora é a monitora ali,
[00:04:08] é o nosso braço direito ali na Cracolândia,
[00:04:10] e graças ao dinheiro do Patreon aí,
[00:04:12] que vocês estão contribuindo,
[00:04:14] então nos ajudem a dominar o mundo também.
[00:04:16] Entrem lá e vejam…
[00:04:17] Antes que as máquinas façam isso.
[00:04:19] Isso, vejam a capa da semana.
[00:04:20] Ah, é. Boa.
[00:04:23] Toda semana tem uma capa divertida,
[00:04:25] zoando alguém, né? Obrigado.
[00:04:27] Exato.
[00:04:28] É um hard time ainda, né, cara?
[00:04:30] É um hard time.
[00:04:31] Ai, ai, ai. Então, tá bom.
[00:04:34] Então, sobre o Patreon, participem lá.
[00:04:36] A gente tem um contato maior, tem promoções,
[00:04:39] tem coisas divertidas que a gente acontece lá dentro.
[00:04:41] Então, participem lá.
[00:04:42] A partir de um dólar por mês,
[00:04:43] e se você quiser contribuir com mais,
[00:04:45] você ganha outras recompensas.
[00:04:47] É só dar uma olhada lá no Patreon para você ter uma olhada.
[00:04:51] Agora, aqueles jabazinhos,
[00:04:52] quem não quiser ouvir também, pula lá,
[00:04:54] tá na postagem aí o tempo que começa o programa certinho.
[00:04:57] Eu, semana passada, eu falei que estava a fim
[00:05:00] de fazer alguns cursos novos, né?
[00:05:02] E muita gente me pediu para fazer de novo
[00:05:03] História da Arte para Criativos.
[00:05:05] Eu vou…
[00:05:06] Eu estou vendo ainda se eu faço isso mesmo.
[00:05:08] De repente, eu abro ele de novo.
[00:05:10] Mas um que eu já estou planejando
[00:05:11] e que talvez até já tenha lançado.
[00:05:13] Fiquem de olho aí na postagem.
[00:05:14] Eu não sei se eu vou ter tempo de estruturar ele certinho.
[00:05:18] Mas que vai ser o curso de
[00:05:19] Introdução à História do Exoterismo Ocidental Moderno.
[00:05:23] É um termo enorme aí, mas vai ter que deixar bem claro.
[00:05:26] Que, primeiro,
[00:05:27] é um curso de introdução, ou seja, não é um curso aprofundado.
[00:05:30] É um curso de história, ou seja,
[00:05:31] eu não vou ensinar ninguém a ler tarô.
[00:05:33] É um curso de esoterismo, então não é sobre
[00:05:35] religião, necessariamente.
[00:05:37] É ocidental, então eu não vou falar dos
[00:05:39] chineses e japoneses e o caralho.
[00:05:42] E é moderno, porque eu vou falar
[00:05:43] de século XIX para cá, tá?
[00:05:45] Então, eu não vou falar de início de maçonaria,
[00:05:48] Rosa Cruz.
[00:05:50] Rosa Cruz eu vou falar bem por cima.
[00:05:52] Mas eu estou mais interessado em falar
[00:05:53] aquela linha que vem lá da
[00:05:55] Aurora Dourada, Golden Doll.
[00:05:57] Que daí vai cair na O.T.O.
[00:05:59] do Crowley,
[00:06:00] a Cientologia do Hubbard,
[00:06:04] a Magia do Caos.
[00:06:06] Então, eu estou pensando em fazer
[00:06:07] esse workshop de um dia, assim,
[00:06:09] de História do Exoterismo,
[00:06:11] que vai ser bem interessante, assim, só para a galera
[00:06:13] entender mais ou menos algumas referências que tem na cultura pop,
[00:06:16] inclusive, sobre quem foi o Crowley,
[00:06:17] o que diz a filosofia dele,
[00:06:19] o que é o Hubbard,
[00:06:22] quem foi Jack Parsons,
[00:06:24] e o que é o Necronomicon,
[00:06:26] o Necronomicon, hoje em dia, que muita gente,
[00:06:27] fala, tem uma série de grupos ocultistas
[00:06:30] que levam a sério o Necronomicon,
[00:06:32] e isso é bem divertido a gente estudar.
[00:06:33] Então, eu vou mostrar todos esses grupos aí
[00:06:35] para a galera.
[00:06:37] Daí vai ter, claro, coisas bem básicas
[00:06:39] sobre Tarot, sobre Kabbalah, sobre Astrologia,
[00:06:41] só que tudo sobre um viés moderno e histórico, tá?
[00:06:44] Então, porque eu tenho que falar
[00:06:46] tudo isso porque, puta que pariu,
[00:06:48] eu não quero ninguém,
[00:06:49] ninguém entrando lá, assim, tipo,
[00:06:52] se chegar, por exemplo, alguém já com um pentagrama
[00:06:54] de cabeça para baixo, assim, sabe?
[00:06:55] Tipo, já está errado.
[00:06:57] Vai ter, vai ter, vai ter, vai ter gente de Wicca,
[00:07:03] com…
[00:07:03] Não, não vou falar, eu vou falar um pouco de Wicca,
[00:07:06] e o que eu vou falar provavelmente vai incomodar
[00:07:07] muitas Wiccas, então, tipo,
[00:07:09] porque eu estou falando um viés histórico, tá certo?
[00:07:12] Então, se acreditam ou não, dane-se,
[00:07:14] eu estou falando, bem baseado
[00:07:16] principalmente nos estudos lá
[00:07:18] da Universidade de Amsterdã,
[00:07:20] que tem um núcleo
[00:07:22] de pesquisa em pós-graduação
[00:07:23] em História do Esoterismo Ocidental,
[00:07:25] que é muito interessante, então eu vou trabalhar,
[00:07:27] com essa vertente, tá? Que tem muito a ver com o meu mestrado,
[00:07:30] e tem sempre gente curiosa de fazer,
[00:07:31] então, se vier tiazinha
[00:07:33] que gosta de ter gnomo em casa
[00:07:36] e, e, e, assim, de incenso,
[00:07:38] o problema é dela, vai, vai
[00:07:40] se chocar com tudo que eu falo de magia sexual
[00:07:42] e o caralho, tá? Então,
[00:07:43] irmão, eu vou ensinar, não vai ter aula prática, nem porra
[00:07:46] nenhuma, tá bom? Mas vocês que se virem…
[00:07:47] O Coffee Break vai ter chá do
[00:07:50] Daime, né? Vai ter chá do Daime, vai,
[00:07:51] vai ter LSD, né? Vai ter,
[00:07:53] vai ter as discussões do Timothy Leary,
[00:07:56] do Huxley, tudo assim.
[00:07:57] Essa galera é muito doida, assim, né?
[00:07:58] Aliás, tem um filme do Jalen, muito recente,
[00:08:01] muito legal, sobre esoterismo.
[00:08:03] Ah, é? Não vi ainda.
[00:08:05] É, o nome é uma merda, que é tipo
[00:08:07] Noite ao Luar, ou
[00:08:09] Noite Estrelada, alguma coisa assim.
[00:08:11] Gostei do nome, me faz acreditar no amor.
[00:08:14] É, então, e é um…
[00:08:16] Enfim, se passa no finalzinho do século XIX
[00:08:18] e é sobre o…
[00:08:20] Enfim, aquela coisa da
[00:08:21] da brincadeira do copo
[00:08:23] que voltou à moda aí, né?
[00:08:24] Sim, o Charlie Charlie.
[00:08:27] Então, vamos falar do Charlie Charlie também.
[00:08:29] Vamos falar de tudo. O que vocês quiserem, eu falo, tá?
[00:08:31] Então, vamos lá.
[00:08:33] Então, fiquem de olho nesse curso que vai abrir
[00:08:35] de falar pra mamãe
[00:08:37] e pode falar, se ela gosta de gnomo,
[00:08:39] pode ir também, não tem problema.
[00:08:42] Vai ser bem bacana, vou falar, principalmente
[00:08:43] vai ser um curso muito legal pra quem quiser.
[00:08:45] Tipo, eu sempre quis ler sobre magia e eu nunca sei
[00:08:47] por onde começar.
[00:08:49] Porque, infelizmente, realmente tem muita coisa ruim,
[00:08:51] muita charlatão por aí.
[00:08:53] Então, daí, charlatão, não tô dizendo que, tipo,
[00:08:55] os caras prometem coisas que não acontecem.
[00:08:57] Dizendo que os caras escrevem merda mesmo, assim, tá?
[00:09:00] Merda errada, historicamente.
[00:09:02] Então, eu vou tentar
[00:09:03] trabalhar mais ou menos nisso, inclusive linhas
[00:09:05] que falam do lado escuro da
[00:09:07] força, sabe? Então, vai…
[00:09:08] É pra toda a família, né? É pra toda a família, é isso, tá?
[00:09:11] A parte que eu mais gosto é a galera, realmente,
[00:09:13] do lado negro da força, assim, tá?
[00:09:15] Então, é… que é do Dragon Rouge.
[00:09:17] Mas vamos falar isso depois.
[00:09:19] Goécia, Enochiana, vai ser uma delícia.
[00:09:21] Então, além desse curso,
[00:09:23] eu tenho, acho que é bom,
[00:09:25] deixando de lado o negócio de cursos,
[00:09:27] meus, é bom falar que eu dei várias
[00:09:29] oficinas de literatura esse ano, né? E
[00:09:31] o que motivou muito a fazer isso
[00:09:33] foi aquele programa que a gente fez lá
[00:09:35] no início do ano, que foi o Anticast de
[00:09:36] Três Páginas, que eu fiz com o Fábio Fernandes,
[00:09:39] e a gente pediu pra vocês mandarem textos
[00:09:41] pra gente, a gente leu, eu e o Fábio lemos
[00:09:43] três textos, a primeira página, então,
[00:09:45] primeira página de três
[00:09:47] pessoas, então, três páginas,
[00:09:49] e isso aí virou um spin-off, virou um programa próprio
[00:09:51] que lançou o primeiro programa
[00:09:53] semana passada. Então,
[00:09:55] que eu gravei com o Jacques Bárcia,
[00:09:57] que é um escritor amigo do Fábio,
[00:09:59] também amigo meu, e a gente leu também mais
[00:10:00] três textos de ouvintes, e foi um programa
[00:10:03] muito bacana, os
[00:10:05] feedbacks estão sendo ótimos, é o típico programa
[00:10:07] que eu tô gostando muito de receber esse feedback, que é tipo
[00:10:09] a galera ouve e fica com vontade
[00:10:11] de escrever quando tá ouvindo,
[00:10:13] assim, sabe? Então, porque é bem bacana
[00:10:15] assim, a questão da discussão técnica, e o Jacques
[00:10:17] é um puta escritor e pensa muito bem
[00:10:18] na questão técnica também. É tudo formalista
[00:10:21] que tem lá, então, pau no cu do
[00:10:23] Becari, a gente tá falando mesmo
[00:10:25] assim, de formalismo e estética literária.
[00:10:27] É, mas é, mas são dicas
[00:10:29] muito boas aí pra quem quer começar a escrever
[00:10:30] e pensar na questão de técnicas.
[00:10:33] E que já faz parte, então,
[00:10:35] dessa família do Anticast aqui,
[00:10:37] de podcasts, né, que tem
[00:10:38] o Três Páginas e o Não Obstante
[00:10:41] que é o do Becari, né, que também
[00:10:43] tá todo vapor aí, né, meu cara? Tá gravando,
[00:10:45] tá editando. Tá gravando, tá gravando.
[00:10:47] Loucamente. Inclusive, já podemos
[00:10:49] estabelecer que sai a cada 15 dias?
[00:10:51] Já podemos começar, por enquanto,
[00:10:53] tá saindo a cada 15 dias? Podemos falar assim?
[00:10:54] É, os próximos vão sair,
[00:10:56] mais ou menos, nesse período, sim.
[00:10:59] Eu espero que continue. Realmente,
[00:11:00] eu consegui aí uma agenda legal
[00:11:03] e, enfim,
[00:11:05] o Felipe tá editando
[00:11:06] também, né, o Felipe tá ajudando bastante
[00:11:08] nesse sentido. O Felipe virou editor do Anticast
[00:11:11] agora também. É, é,
[00:11:12] bem lembrado. Eu acho
[00:11:14] que ele editou esse. Eu acho.
[00:11:17] Eu acho que ele editou esse.
[00:11:19] Eu acho que ele editou esse.
[00:11:20] 340 pessoas.
[00:11:26] Eu acho que ele editou esse.
[00:11:26] Eu acho que ele editou esse.
[00:11:26] Eu acho que ele editou esse.
[00:11:26] Eu acho que ele editou esse. Eu acho.
[00:11:29] É, quem
[00:11:30] tá ajudando, de fato, é o pessoal do Patreon, né?
[00:11:33] Então é por isso que…
[00:11:34] Só por causa do Patreon isso acontece, é.
[00:11:37] E daí saiu, não obstante,
[00:11:39] o número 8, agora,
[00:11:40] semana passada, que foi
[00:11:43] sobre o Clément Rosset.
[00:11:44] É um filósofo que você gosta muito e é
[00:11:46] muito interessante, cara.
[00:11:50] Além disso, o Felipe,
[00:11:51] eu achei que ele mandou muito bem nessa edição.
[00:11:53] O pessoal gostou bastante.
[00:11:54] A edição do…
[00:11:56] do podcast, né?
[00:11:58] Enfim, escutem lá.
[00:12:02] Enfim,
[00:12:03] é o lugar lá onde a filosofia
[00:12:05] rola solta, né? Isso.
[00:12:06] Então, assinem os feeds, não obstante, do
[00:12:08] Três Páginas. Daqui a pouco vai ter outros podcasts
[00:12:10] também. Tem um podcast dos nossos patrões,
[00:12:13] que é o É Pau, É Pedra, também, que a gente
[00:12:14] tá apoiando. E tem um spin-off
[00:12:16] desse podcast, que é um spin-off do
[00:12:18] Anticast, que é o Noocast.
[00:12:21] Ele saiu o primeiro hoje,
[00:12:23] o Despertar do Nude. É muito
[00:12:24] metanarrativa isso aí.
[00:12:26] Mas o Noobstand também
[00:12:29] tá oferecendo outras coisas ali de podcast, né,
[00:12:31] Becar? É verdade. Então,
[00:12:34] enfim, a gente tá oferecendo
[00:12:35] sessões, não obstante,
[00:12:37] que são aulas via Hangout,
[00:12:39] três horas de aula, sempre
[00:12:41] aos domingos,
[00:12:43] comigo, né?
[00:12:45] E se você entrar lá na página
[00:12:47] do Filosofia Design, na sessão de cursos,
[00:12:49] tem todas as informações certinhas.
[00:12:53] Aliás,
[00:12:53] assim, a gente também tá tentando
[00:12:55] fazer mais ou menos a cada 15 dias.
[00:12:58] Tá dando certo.
[00:13:00] A próxima sessão, por exemplo,
[00:13:01] tá lotada. E
[00:13:03] aquela promoção, né, da fidelização
[00:13:05] de, se você
[00:13:07] faz pela segunda vez,
[00:13:09] você paga
[00:13:10] 50 reais. Isso, digamos,
[00:13:13] em fluxo contínuo. Se você não parar
[00:13:15] de fazer, sempre vai pagar 50 reais.
[00:13:18] A não ser que passe um curso meu,
[00:13:19] daí é…
[00:13:20] Tá na máfia, né?
[00:13:24] Fluxo contínuo de curso.
[00:13:25] É isso aí, exatamente.
[00:13:26] Agora, a questão é que
[00:13:28] enfim,
[00:13:31] o pessoal tem usado
[00:13:33] bastante essa questão da fidelização,
[00:13:36] eu acho que é interessante,
[00:13:37] pra mim, tá dando certo.
[00:13:40] Mas, assim,
[00:13:41] tem muita gente nova se inscrevendo.
[00:13:44] Então,
[00:13:45] vou tentar reforçar aí a divulgação,
[00:13:48] porque tá sempre os mesmos alunos,
[00:13:50] né? Eu tenho medo de, sei lá,
[00:13:52] tá formando um culto aí.
[00:13:53] É, não,
[00:13:55] o medo é real.
[00:13:57] É verdade.
[00:13:58] Ele já é verdadeiro, só pra ver.
[00:14:01] Então, novas pessoas aí
[00:14:03] que estejam interessadas.
[00:14:06] Enfim, vai ter sessão lá
[00:14:07] sobre estética, depois sobre ética,
[00:14:10] depois, inclusive,
[00:14:11] sobre ontologia, questões
[00:14:13] filosóficas via hangout.
[00:14:15] Portanto, você precisa ter lá
[00:14:17] acesso à internet.
[00:14:20] No mínimo.
[00:14:21] No mínimo é bom, né?
[00:14:23] É, é bom.
[00:14:24] E daí você…
[00:14:24] Ou rouba do wi-fi do vizinho,
[00:14:26] dá um jeito aí.
[00:14:27] Exatamente.
[00:14:28] Então, pra outras informações,
[00:14:29] você entra lá,
[00:14:30] filosofiadesign.com
[00:14:31] barra curso,
[00:14:32] e pra inscrição,
[00:14:33] ou tira dúvidas,
[00:14:34] manda e-mail pra
[00:14:35] nãoobstante,
[00:14:36] não,
[00:14:37] caralho,
[00:14:38] contato,
[00:14:39] arroba nãoobstante.com
[00:14:40] Isso, maravilha.
[00:14:42] E ainda sobre,
[00:14:43] só o último, assim,
[00:14:44] em breve vai ter site
[00:14:46] dessas porra também, né?
[00:14:47] Isso.
[00:14:47] Vai ter três páginas
[00:14:49] do Não Obstante,
[00:14:49] tudo isso.
[00:14:50] Aí você não precisa mais
[00:14:51] ficar procurando.
[00:14:53] Isso, maravilha.
[00:14:54] E a gente tá falando
[00:14:55] de todos esses podcasts,
[00:14:56] vocês sempre vão lembrar também
[00:14:57] dos podcasts que tem no B9,
[00:14:58] que eu sempre esqueço de falar,
[00:14:59] que eu sou um grosso, né?
[00:15:00] Mas tem o Zing lá do Maron,
[00:15:02] tem o Mamilos,
[00:15:03] lá da Juliana e da Cris,
[00:15:05] tem aquele Braincast lá
[00:15:07] que eu nunca ouvi.
[00:15:08] Nerdcast.
[00:15:10] Nerdcast,
[00:15:10] tem o Matando Robôs Gigantes,
[00:15:12] Rafa DuraCast.
[00:15:16] Tem o Spoilers TV
[00:15:17] e tem o Mupoca,
[00:15:18] o querido Mupoca,
[00:15:20] do seu Yossi.
[00:15:21] Que vira e mexe, surge.
[00:15:22] Surge, né?
[00:15:24] Mas agora eles estão sendo
[00:15:25] bem irregulares.
[00:15:25] É, que inclusive,
[00:15:26] agora eles também tem o Patreon.
[00:15:28] Inclusive,
[00:15:29] temos patrões mútuos.
[00:15:30] Olha aí.
[00:15:32] Olha, tem vários.
[00:15:34] Eu tô de olho
[00:15:34] nessa zoeira aí, ó.
[00:15:36] Vai entendendo o Mucu.
[00:15:37] Esse tamanho dessa contribuição aí.
[00:15:41] Beleza.
[00:15:42] Vai, cara,
[00:15:42] dá o teu recado aí.
[00:15:44] Então,
[00:15:45] a gente tá fechando
[00:15:45] a agenda de cursos
[00:15:47] do Pensar Infográfico
[00:15:48] pro segundo semestre.
[00:15:52] Então,
[00:15:52] tem uma lista de interessados
[00:15:53] ali
[00:15:54] pra um futuro workshop
[00:15:55] em São Paulo.
[00:15:57] Se você quiser,
[00:15:58] talvez a gente faça
[00:15:59] antes do segundo semestre.
[00:16:01] Se bem que já estamos
[00:16:02] no segundo semestre.
[00:16:03] É, daí já fodeu.
[00:16:04] Mas fazemos agora
[00:16:05] entre junho e julho,
[00:16:07] talvez.
[00:16:08] Não teve muitas inscrições ali,
[00:16:11] então,
[00:16:12] talvez a gente feche datas
[00:16:13] mais pro meio do semestre.
[00:16:16] E seguinte,
[00:16:17] lembrando,
[00:16:18] se você tem um grupo,
[00:16:21] sei lá,
[00:16:21] de umas 15 pessoas
[00:16:23] e tá interessado
[00:16:23] e queria que a gente
[00:16:26] fizesse o curso
[00:16:27] na sua cidade,
[00:16:28] entra em contato
[00:16:28] que a gente faz pro grupo.
[00:16:30] Não precisa
[00:16:31] a gente ir
[00:16:32] abrir inscrição
[00:16:33] e etc.
[00:16:34] A gente se ajunta ali
[00:16:36] e tenta organizar o curso.
[00:16:38] É até mais fácil.
[00:16:39] Isso.
[00:16:39] E só avisando,
[00:16:40] em setembro,
[00:16:41] a gente vai estar
[00:16:42] dando um workshop
[00:16:43] no CID,
[00:16:44] que é o Congresso
[00:16:46] de Design da Informação
[00:16:47] lá em Brasília.
[00:16:49] Vai ser uma
[00:16:50] oficina
[00:16:51] de quatro horas.
[00:16:53] Então,
[00:16:53] quem puder ir,
[00:16:55] vejam lá
[00:16:55] a programação do CID.
[00:16:57] Maravilha.
[00:16:58] Então,
[00:16:58] é isso.
[00:16:59] Chega de recado, né?
[00:17:00] Já foi muito tempo.
[00:17:01] Então,
[00:17:02] vamos ao programa aí, gente.
[00:17:03] Espero que gostem.
[00:17:04] Qualquer coisa,
[00:17:04] mandem e-mail aí.
[00:17:05] Contato
[00:17:05] arroba
[00:17:06] etiquete.com.br
[00:17:07] Contato
[00:17:07] arroba
[00:17:08] nome
[00:17:08] site.com
[00:17:09] Contato
[00:17:09] Paulo Sucu.
[00:17:11] Espero que gostem do programa.
[00:17:23] Tchau, tchau.
[00:17:53] Um breve sinopse.
[00:17:55] Ah, foda-se.
[00:17:56] A gente já deve ter feito
[00:17:58] a sinopse no início também.
[00:18:00] É, tem essa.
[00:18:01] É o filme do Alex Carlo.
[00:18:02] Ah, mas fala de novo
[00:18:03] de qualquer jeito aí.
[00:18:04] Fala aí, Becari.
[00:18:05] Pois bem,
[00:18:05] Caleb.
[00:18:06] É Caleb ou Caleb?
[00:18:08] Caleb.
[00:18:08] Vamos lá.
[00:18:09] Aqui vai ser Caleb.
[00:18:10] Caleb.
[00:18:10] Caled.
[00:18:11] Caled.
[00:18:12] Qual é que era a música dele mesmo?
[00:18:14] Vamos lá.
[00:18:16] Vamos usar isso
[00:18:17] como, sei lá.
[00:18:18] Não, não.
[00:18:19] Ah, o Felipe
[00:18:20] tá editando ali.
[00:18:21] É.
[00:18:22] Felipe, bota a música
[00:18:22] do Caled aí.
[00:18:23] Pra galera lembrar.
[00:18:33] Pronto.
[00:18:35] O Caled é um programador, né,
[00:18:37] que trabalha pra
[00:18:38] Blue Book.
[00:18:39] É Caleb, né, Caleb.
[00:18:41] Mas vai ser Caled aqui.
[00:18:43] O nosso Caled.
[00:18:44] Tá.
[00:18:44] Que é tipo o Google.
[00:18:46] Isso.
[00:18:47] Uma coisa interessante
[00:18:48] de falar é que o Caleb ali,
[00:18:50] ele é aquele
[00:18:51] Dohan Gleeson,
[00:18:52] que é o Ash
[00:18:53] lá do
[00:18:53] Black Mirror.
[00:18:54] É verdade.
[00:18:55] Tá.
[00:18:55] Muita gente, inclusive,
[00:18:56] que mandou tweet e e-mail
[00:18:57] pra gente falar sobre esse filme
[00:18:59] falou,
[00:18:59] vocês que falam do Black Mirror
[00:19:01] vão gostar muito daqui
[00:19:02] do, do, do,
[00:19:03] do Ex-Máquina.
[00:19:05] Suspicição.
[00:19:06] Inglesa.
[00:19:06] É, e os dois são ingleses
[00:19:08] e justamente tem
[00:19:09] esse mesmo ator, né,
[00:19:11] o Caleb,
[00:19:12] o Caled.
[00:19:13] O Caled.
[00:19:15] Feito pelo
[00:19:15] Don Hall-Glinson.
[00:19:16] Esse mesmo que fez
[00:19:17] o último episódio
[00:19:18] que a gente falou
[00:19:19] do Black Mirror, né,
[00:19:19] que é o
[00:19:20] Be Right Back, né,
[00:19:23] se não me engano.
[00:19:23] É.
[00:19:23] Então, ótimo.
[00:19:25] Tá.
[00:19:25] E aí, Becari?
[00:19:27] Então, tá.
[00:19:27] Então esse filho da puta
[00:19:28] trabalha numa empresa
[00:19:29] que é tipo um Google, tá?
[00:19:30] É, exatamente.
[00:19:31] Daí nessa empresa
[00:19:32] tem uma espécie de
[00:19:33] loteria interna
[00:19:35] que é um sorteio,
[00:19:37] enfim,
[00:19:38] pro,
[00:19:38] é,
[00:19:39] daí eu funciono,
[00:19:40] peraí que meu celular
[00:19:41] tá muito perto aqui.
[00:19:43] Ah!
[00:19:44] Ah!
[00:19:45] Ah!
[00:19:46] Ah!
[00:19:47] Ah!
[00:19:47] Ah!
[00:19:47] Ah!
[00:19:47] Ah!
[00:19:47] Ah!
[00:19:47] Ah!
[00:19:47] Ah!
[00:19:47] Ah!
[00:19:47] Felipe, não corta aí.
[00:19:48] Não, não, não.
[00:19:49] Inclusive é bom dizer
[00:19:51] já um interlúdio
[00:19:52] que, assim,
[00:19:52] gravar esse programa
[00:19:53] foi um inferno, tá?
[00:19:54] Tipo, tudo que podia
[00:19:56] dar errado de computador
[00:19:57] deu, assim.
[00:19:58] Tentamos umas três vezes
[00:19:59] gravar isso.
[00:20:00] Então, assim,
[00:20:00] esse filme
[00:20:02] tá sendo…
[00:20:04] O tema é intertextual.
[00:20:05] É, as máquinas
[00:20:06] estão impedindo
[00:20:07] da gente gravar
[00:20:08] sobre esse filme, cara.
[00:20:09] Tá foda.
[00:20:09] Tá foda.
[00:20:10] Ou seja,
[00:20:11] tem algo importante
[00:20:12] a ser dito aqui.
[00:20:14] As máquinas
[00:20:15] estão com medo.
[00:20:16] Então,
[00:20:16] vamos ver onde é que a gente chega.
[00:20:19] Tá, então,
[00:20:19] o filho da puta
[00:20:20] ganha essa loteria
[00:20:21] e o que ele vai fazer?
[00:20:23] Ele vai passar
[00:20:24] uma semana
[00:20:24] na casa
[00:20:25] do CEO
[00:20:27] da empresa,
[00:20:28] que é o senhor
[00:20:29] Nathan.
[00:20:30] Isso.
[00:20:32] É uma casa
[00:20:32] isolada nas montanhas.
[00:20:34] Aliás, é estranho.
[00:20:34] É tudo hipster, né?
[00:20:36] Tem tudo hipster.
[00:20:37] Na Noruega,
[00:20:38] parece.
[00:20:39] É.
[00:20:39] É na puta que pariu.
[00:20:41] Nas montanhas.
[00:20:43] Exatamente.
[00:20:44] Ele tem um centro
[00:20:45] de pesquisa
[00:20:45] na casa dele.
[00:20:46] É um gênio excêntrico.
[00:20:48] É o Tony Stark, né?
[00:20:49] É, exatamente.
[00:20:51] Sim.
[00:20:52] E…
[00:20:53] Bom, eu vou resumir, né?
[00:20:55] Bom, já isso.
[00:20:56] Foi spoiler pra caralho, né?
[00:20:57] Foda-se.
[00:20:58] Quem tá ouvindo até aqui…
[00:20:59] Esse cara tá aqui, né?
[00:21:00] Se fudeu.
[00:21:01] Tá ligado.
[00:21:01] Então, vai lá.
[00:21:02] Então, se prepara.
[00:21:03] Ele tem um…
[00:21:03] Ele faz um robô humanoide
[00:21:05] chamado Eva.
[00:21:06] Ava, perdão.
[00:21:07] Ava.
[00:21:08] Ele…
[00:21:09] Não, calma.
[00:21:09] Ele projeta, né?
[00:21:11] Não é que ele faz.
[00:21:12] Que daí parece que é um…
[00:21:13] É o ator fazendo o personagem.
[00:21:16] Essa é a pior sinopse
[00:21:18] de todos os tempos.
[00:21:20] O Nathan é um personagem.
[00:21:21] Ele…
[00:21:22] Enfim,
[00:21:22] por ser um gênio,
[00:21:23] da informática e tal,
[00:21:24] ele cria esse robô humanoide
[00:21:26] e ele explica…
[00:21:27] Diga.
[00:21:28] Ele projeta uma inteligência artificial
[00:21:30] até se tornar…
[00:21:32] E ela vai evoluindo
[00:21:33] até se tornar esse robô, né?
[00:21:35] A gente já chega no filme,
[00:21:36] ele já tá nesse nível do robô, né?
[00:21:39] Exatamente.
[00:21:40] Daí ele explica pro Caleb,
[00:21:41] pro…
[00:21:42] O Caled ali.
[00:21:43] Caled.
[00:21:45] E…
[00:21:45] Como é que é o Caled aqui?
[00:21:46] Era com um H no nome dele.
[00:21:49] Caled.
[00:21:50] Vou tentar achar aqui.
[00:21:51] Não, é Caleb.
[00:21:51] Tá aqui no…
[00:21:53] Tô correndo.
[00:21:53] Ah, Sheb Caled aqui, cara.
[00:21:56] Porra, ó.
[00:21:57] Eu vou…
[00:21:58] É Larvin!
[00:22:00] Yeah!
[00:22:01] É Larvin!
[00:22:02] É essa música, cara.
[00:22:03] Essa música.
[00:22:04] Esse cara, ó.
[00:22:05] Vou dar pra vocês o cara.
[00:22:07] O Wikipedia do Sheb Caled.
[00:22:11] Tá bom?
[00:22:11] Fala aí, meu cara.
[00:22:12] Desculpa.
[00:22:13] E daí, enfim,
[00:22:14] ele explica pro Caled
[00:22:15] que ele foi chamado ali
[00:22:16] pra fazer o teste de Turing.
[00:22:19] Que, pra quem não sabe,
[00:22:20] o teste de Turing tá no…
[00:22:22] Blade Runner, né?
[00:22:24] Que é pra ver se o…
[00:22:25] O humanoide…
[00:22:27] Como que é o nome?
[00:22:27] O Android, enfim.
[00:22:29] Ele…
[00:22:30] É Android ou humano.
[00:22:31] É o teste pra você ver
[00:22:32] se você é humano
[00:22:33] ou se é um computador
[00:22:34] ou se é uma inteligência artificial.
[00:22:36] É, que é pra ver
[00:22:37] se a…
[00:22:38] Se a inteligência artificial
[00:22:40] tá bastante avançada
[00:22:41] a ponto de conseguir enganar
[00:22:42] um humano de que
[00:22:43] aquilo é ou não.
[00:22:45] Agora, engraçado,
[00:22:46] os programadores que ouvem aí
[00:22:47] o Anticast, por favor,
[00:22:49] me corrijam depois
[00:22:50] porque eu acho que é
[00:22:52] achava que esse não era
[00:22:53] o teste de Turing.
[00:22:53] Eu achava que esse era
[00:22:54] o teste da máquina chinesa.
[00:22:56] Não, mas eu acho que
[00:22:56] a máquina chinesa
[00:22:57] é outra coisa, na real.
[00:22:58] Alguém me explica depois
[00:22:59] o que é isso, tá?
[00:23:00] Então, bota aí
[00:23:01] nos comentários.
[00:23:02] No filme ele menciona
[00:23:03] Turing Test.
[00:23:04] É, não, Turing…
[00:23:05] Eu acho que é isso mesmo.
[00:23:06] Eu acho que a máquina chinesa
[00:23:07] é outra coisa que é tipo
[00:23:08] você dá um…
[00:23:10] Dá um dicionário chinês
[00:23:11] pra uma pessoa
[00:23:11] e manda ela
[00:23:12] tentar escrever uma frase.
[00:23:14] Caixa chinesa.
[00:23:15] Caixa chinesa.
[00:23:15] Eu acho que eles são
[00:23:16] a mesma coisa.
[00:23:17] É a sala chinesa.
[00:23:18] Sala chinesa.
[00:23:19] É, vai tomar no cu também.
[00:23:20] Não sei.
[00:23:21] Bom, eu posso resumir
[00:23:22] e assassinar o filme agora?
[00:23:23] Vai, vai.
[00:23:25] Porque, enfim…
[00:23:25] Já vai botar
[00:23:26] tua opinião de merda
[00:23:27] no caso aqui, tá?
[00:23:28] É, exatamente.
[00:23:28] Olha, eu vou fazer
[00:23:28] uma referência MRG aqui, ó.
[00:23:30] Um abraço pra Consolano.
[00:23:32] Não, mas o Caleb
[00:23:33] ele se apaixona
[00:23:34] pela moda…
[00:23:36] Pela robô.
[00:23:39] E daí ele descobre
[00:23:40] que o Nathan
[00:23:41] uma vez que…
[00:23:42] Depois que ele sair lá
[00:23:43] e fazer o teste, né?
[00:23:45] Depois que o Caleb
[00:23:46] prestar esse serviço
[00:23:48] a Ava
[00:23:49] vai ser reprogramada
[00:23:50] o que significa
[00:23:50] que ela vai ser desativada.
[00:23:52] Enfim, vai ser morta, né?
[00:23:54] E como o nosso amigo aí
[00:23:56] o Caleb
[00:23:56] ele se apaixonou
[00:23:57] aí ele fica lá
[00:23:59] assim, pô…
[00:24:00] Boladão.
[00:24:01] É, boladão.
[00:24:01] Ele quer sair
[00:24:02] ele quer, enfim
[00:24:03] fazer um plano ali
[00:24:04] se aproveitar
[00:24:05] que o Nathan
[00:24:06] é meio bêbado, assim.
[00:24:08] E daí
[00:24:08] ele quer
[00:24:09] embebedar o cara
[00:24:11] e tal.
[00:24:12] Daí fica nesse
[00:24:12] thriller, suspense
[00:24:14] enfim
[00:24:15] que eu achei…
[00:24:16] Tá bom, tá bom, né, cara?
[00:24:18] Já, já, já.
[00:24:19] Já, já.
[00:24:19] Já vai falar sobre isso.
[00:24:20] E aí?
[00:24:20] É.
[00:24:21] Daí ele se apaixona
[00:24:22] e daí ele
[00:24:23] ele consegue ir lá
[00:24:24] fazer um plano mirabolante
[00:24:26] daí tem aquele
[00:24:26] turning point, né?
[00:24:27] Que todo mundo pensa
[00:24:28] que deu merda
[00:24:29] mas na verdade
[00:24:29] ele deu o plano dele
[00:24:31] ele tava mais à frente
[00:24:32] do Nathan
[00:24:33] e daí ele consegue
[00:24:34] soltar a robô
[00:24:35] daí a robô
[00:24:36] o Jout contra o robô
[00:24:37] mata o Nathan
[00:24:39] daí
[00:24:39] e aí que vem
[00:24:40] o grande ponto do filme
[00:24:41] ela prende
[00:24:43] o Caleb
[00:24:44] né?
[00:24:45] Cantando
[00:24:45] Ele é meu
[00:24:47] Ele é meu
[00:24:49] sozinho em casa
[00:24:50] e ela vai lá
[00:24:52] e pega o helicóptero
[00:24:53] que seria pra ele
[00:24:54] voltar pra casa
[00:24:55] e ela está solta
[00:24:56] no mundo agora
[00:24:57] pra trazer
[00:24:57] e a continuação
[00:24:59] é o Estremador do Futuro
[00:25:00] é isso aí.
[00:25:02] A questão do filme inteiro
[00:25:03] era assim
[00:25:04] tinha um teste de Turing, né?
[00:25:06] Que normalmente seria
[00:25:08] o computador se passar
[00:25:10] desapercebido por um ser humano
[00:25:12] nesse caso
[00:25:13] além de
[00:25:14] o ser humano
[00:25:17] saber que é um computador
[00:25:18] que é um robô
[00:25:19] ele teria que
[00:25:20] enganar esse ser humano
[00:25:22] e conseguir sair pra vida
[00:25:23] fora do circuito
[00:25:26] ali onde ele estava fechado
[00:25:26] era o grande objetivo
[00:25:28] da Ava, né?
[00:25:29] É, mas eu acho que
[00:25:30] ela consegue
[00:25:30] a mensagem
[00:25:32] enfim
[00:25:34] a moral da história
[00:25:34] é
[00:25:36] além de nunca
[00:25:37] confie num robô
[00:25:38] nunca
[00:25:39] não se apaixone
[00:25:40] não se apaixone
[00:25:41] não se apaixone
[00:25:42] nem por um robô
[00:25:43] o amor não constrói
[00:25:46] o amor
[00:25:47] não constrói
[00:25:48] o amor
[00:25:48] não constrói
[00:25:49] mas é
[00:25:51] enfim
[00:25:52] o que eu acho que todo mundo
[00:25:53] que encheu o saco da gente
[00:25:54] pra fazer esse anti-cash
[00:25:55] achou interessante
[00:25:57] é que
[00:25:58] a inteligência artificial
[00:26:01] é capaz de enganar todo mundo
[00:26:03] inclusive se passar por
[00:26:04] fingir o amor
[00:26:06] enfim
[00:26:07] fingir estar apaixonada
[00:26:09] e tal
[00:26:09] e daí ela é extremamente traiçoeira
[00:26:11] e
[00:26:13] daí aí que tá
[00:26:14] o que que
[00:26:15] a faz humana, né?
[00:26:16] ser traiçoeira
[00:26:17] fingir o amor
[00:26:18] fingir o amor
[00:26:19] ou
[00:26:19] enfim
[00:26:20] daí isso deixa as pessoas
[00:26:21] que eu não consigo entender direito
[00:26:24] qual que é
[00:26:25] a graça de tudo isso
[00:26:28] não
[00:26:29] é que o filme tem uma série
[00:26:31] de levantamentos interessantes
[00:26:33] assim
[00:26:33] só que assim
[00:26:34] minha opinião já também de cara
[00:26:35] é que o Black Mirror
[00:26:36] é infinitamente superior
[00:26:38] assim
[00:26:38] sim
[00:26:38] acho que
[00:26:39] não
[00:26:40] é que tá
[00:26:40] eu diria que
[00:26:41] esse filme
[00:26:42] seria um bom Black Mirror
[00:26:44] entendeu?
[00:26:45] só que
[00:26:46] como não é um Black Mirror
[00:26:47] só de fato
[00:26:47] talvez
[00:26:48] não
[00:26:48] mas sabe
[00:26:49] tipo se tivesse ali
[00:26:50] a extensão de Black Mirror
[00:26:51] que é quase um filme
[00:26:52] mas enfim
[00:26:53] um pouco menos, né?
[00:26:54] seria bom
[00:26:55] eu acho assim
[00:26:56] mas como é um filme
[00:26:57] todo hipster e o caralho
[00:26:59] assim
[00:26:59] Black Mirror também é hipster pra caralho
[00:27:03] o
[00:27:04] o
[00:27:05] o Lillian Davis lá
[00:27:06] no negócio
[00:27:07] o Nathan
[00:27:08] é assim
[00:27:09] é o
[00:27:10] o
[00:27:10] Oscar Isaac
[00:27:12] isso
[00:27:13] sim, sim
[00:27:14] esse ator é muito bom
[00:27:14] é
[00:27:15] sim, é um bom ator
[00:27:16] não, é que tá
[00:27:17] tipo tem
[00:27:17] é que tem episódio do Black Mirror
[00:27:18] que eu acho fraco
[00:27:19] mas enfim
[00:27:20] tá valendo
[00:27:20] é um seriado
[00:27:21] sabe?
[00:27:22] é uma
[00:27:22] é um thriller, né?
[00:27:24] eu não achei ruim
[00:27:25] quando eu assisti pela primeira vez
[00:27:27] assim
[00:27:27] mas eu sabia que eu não
[00:27:29] se eu assisti de novo
[00:27:30] eu ia achar ruim
[00:27:30] entendeu?
[00:27:32] é o tipo de filme bom
[00:27:34] na primeira vez
[00:27:35] assim
[00:27:35] uma vez
[00:27:36] daí você já nota isso
[00:27:37] e já
[00:27:38] e já
[00:27:39] beleza assim
[00:27:40] sabe?
[00:27:42] deixa
[00:27:43] stand by
[00:27:43] mas assim
[00:27:44] tem alguns detalhes ali, né?
[00:27:46] que a
[00:27:47] a Ava começa
[00:27:48] tem uns
[00:27:48] uns curtos circuitos
[00:27:50] que acaba
[00:27:51] a luz ali
[00:27:51] nossa
[00:27:53] a gente tá explicando
[00:27:53] muito mal
[00:27:54] hipoticamente
[00:27:54] não, não
[00:27:55] mas é que assim
[00:27:56] vamos partir do princípio
[00:27:56] que quem já viu o filme
[00:27:58] já sabe
[00:27:59] já sabe tudo isso, né?
[00:28:00] e quem não viu
[00:28:01] infelizmente tem que ver o filme
[00:28:03] pra sacar
[00:28:03] porque
[00:28:03] o legal do filme
[00:28:05] agora falando como peça
[00:28:06] narrativa
[00:28:07] é
[00:28:08] é que assim
[00:28:08] é o típico filme
[00:28:10] assim que
[00:28:10] você nunca sabe
[00:28:11] você fica sempre na dúvida
[00:28:12] do que que tá acontecendo
[00:28:13] sabe?
[00:28:14] então você fica em suspensão
[00:28:16] assim de
[00:28:16] saber o que
[00:28:17] quem que tá falando a verdade
[00:28:18] e daí você vai comprar
[00:28:20] a versão de um
[00:28:21] ou de outro personagem
[00:28:22] e tal
[00:28:22] então
[00:28:22] isso é bacana
[00:28:23] é
[00:28:24] eu tinha minha aposta
[00:28:25] logo do início
[00:28:26] que é
[00:28:26] nunca confie na máquina
[00:28:28] né?
[00:28:28] exato
[00:28:29] então
[00:28:29] eu assim
[00:28:30] eu nunca consegui
[00:28:31] mesmo a
[00:28:32] primeira vez lá
[00:28:33] que ela vai falar
[00:28:34] né?
[00:28:34] que acaba a luz
[00:28:35] e ela começa a trocar ideia
[00:28:36] com o cara
[00:28:37] é
[00:28:38] cara
[00:28:39] eu falei
[00:28:39] esse robô filho da puta
[00:28:41] vai foder a vida dele
[00:28:42] tipo
[00:28:43] aí que tá
[00:28:45] é
[00:28:46] será que
[00:28:46] é previsível
[00:28:46] você achou?
[00:28:48] não
[00:28:48] aí que tá
[00:28:48] será que a previsibilidade
[00:28:50] é um preconceito nosso
[00:28:51] com máquinas
[00:28:52] naturalmente
[00:28:53] dado vários filmes
[00:28:55] tipo
[00:28:55] Exterminador do Futuro
[00:28:56] é
[00:28:57] talvez
[00:28:57] assim
[00:28:58] eu acho que seria mais surpreendente
[00:28:59] um final
[00:29:00] falando disso
[00:29:01] tipo
[00:29:01] se fosse surpreendente
[00:29:02] seria mais surpreendente
[00:29:03] se fosse um
[00:29:04] tipo
[00:29:04] ele ficasse junto com ela mesmo
[00:29:06] sabe?
[00:29:07] eu acho que seria mais surpreendente
[00:29:08] um novo paradigma
[00:29:09] sabe?
[00:29:10] isso
[00:29:10] não
[00:29:11] se o Nathan fosse um filho da puta
[00:29:13] realmente
[00:29:14] sabe?
[00:29:15] tipo
[00:29:15] que nem ele mostra
[00:29:16] que eles começam a
[00:29:18] a
[00:29:18] isso eu achei
[00:29:19] um recurso narrativo
[00:29:20] bem legal assim
[00:29:21] tipo
[00:29:21] do cara não mostrar
[00:29:22] tipo
[00:29:23] o Nathan
[00:29:24] exatamente
[00:29:25] e daí ele só mostra ele
[00:29:26] em alguns momentos
[00:29:27] ele agindo com os robôs
[00:29:29] quando a gente não sabia
[00:29:30] que era um robôs
[00:29:31] e ele sendo
[00:29:32] mó escroto assim
[00:29:33] porque o cara
[00:29:34] parece que ele tá
[00:29:35] ultraconsciente assim
[00:29:37] da não humanidade
[00:29:42] dos robôs
[00:29:42] então ele pode ser escroto
[00:29:43] com eles
[00:29:43] porque ele não tá sendo
[00:29:44] escroto com o humano
[00:29:45] é
[00:29:46] respectivamente
[00:29:47] da sociedade
[00:29:48] da sociedade
[00:29:48] da sociedade
[00:29:48] da sociedade
[00:29:48] da sua própria
[00:29:48] não humanidade
[00:29:50] mas quando ele
[00:29:51] tá se relacionando
[00:29:52] com o humano
[00:29:53] ele é muito gente boa
[00:29:54] tipo
[00:29:54] que é com
[00:29:55] então
[00:29:55] mas a
[00:29:56] a Ava também né
[00:29:58] é
[00:29:59] é que assim
[00:30:00] digamos assim
[00:30:01] que o
[00:30:01] eu acho
[00:30:03] vamos lá
[00:30:03] os dilemas morais
[00:30:04] que são colocados no filme
[00:30:05] né
[00:30:06] que
[00:30:06] acho que daí a gente
[00:30:07] pode começar a explorar
[00:30:08] é
[00:30:08] um
[00:30:10] você tem um
[00:30:11] um caso
[00:30:11] de um robô
[00:30:12] que
[00:30:12] o Nathan chega a dizer
[00:30:14] que inclusive
[00:30:14] vai poder sentir tudo
[00:30:16] ele consegue sentir
[00:30:17] emoções
[00:30:18] ele consegue sentir
[00:30:18] prazer sexual
[00:30:20] dor
[00:30:21] ele consegue fazer tudo isso
[00:30:22] e daí
[00:30:23] tem uma discussão de tipo
[00:30:24] ah mas
[00:30:25] será que tá sentindo de verdade
[00:30:26] ou não
[00:30:27] e é interessante
[00:30:28] que o Nathan
[00:30:28] fica defendendo toda hora
[00:30:29] assim não
[00:30:30] ela tá sentindo isso mesmo
[00:30:31] e assim
[00:30:32] é a mesma coisa que tipo
[00:30:33] se você sentir
[00:30:34] se eu não sou você
[00:30:34] eu não sei se tá falando a verdade
[00:30:35] mas ela tá programada
[00:30:37] pra dizer que sente
[00:30:38] e ela vai sentir tudo isso
[00:30:39] então
[00:30:39] a diferença
[00:30:41] não tem nenhuma
[00:30:42] só que
[00:30:43] curiosamente
[00:30:44] o Nathan
[00:30:45] defende tudo isso
[00:30:47] e explica tudo isso
[00:30:48] e problematiza isso tudo
[00:30:49] pro
[00:30:49] pro Khaled
[00:30:51] né
[00:30:52] e o Khaled
[00:30:54] ele se sensibiliza
[00:30:56] enquanto que o Nathan
[00:30:57] já fica mais na dele mesmo
[00:30:58] assim tipo
[00:30:59] é um robô
[00:30:59] então
[00:31:01] o Nathan é bem
[00:31:02] o cientistão ali
[00:31:03] e já o
[00:31:04] o Kaleb
[00:31:05] já é o cara que tá meio
[00:31:06] tipo
[00:31:06] não
[00:31:07] não pode
[00:31:08] ele é convencido
[00:31:09] só que o Nathan
[00:31:10] é meio que assim
[00:31:11] ele
[00:31:11] parece que ele
[00:31:12] todas as explicações
[00:31:14] que ele dá assim
[00:31:15] não é muito
[00:31:16] pela lógica técnica
[00:31:17] né
[00:31:17] tipo é mais
[00:31:18] por exemplo
[00:31:20] se ele sente
[00:31:21] então existe
[00:31:21] não dá pra questionar isso
[00:31:22] tipo ele fica nessa questão
[00:31:24] existencialista
[00:31:25] sim sim
[00:31:25] mas o Nathan
[00:31:26] ele tem um robô
[00:31:27] e
[00:31:28] enfim
[00:31:29] o Kaleb sabe
[00:31:30] que não é a Ava
[00:31:31] que é a tal da
[00:31:32] Kyoko
[00:31:33] é que ele vai descobrir
[00:31:35] que é um robô
[00:31:36] depois né
[00:31:36] é tipo uma
[00:31:37] recha né
[00:31:38] é mas que é tipo
[00:31:39] uma prostituta
[00:31:41] né
[00:31:41] particular e tal
[00:31:42] ou seja
[00:31:44] o Nathan
[00:31:45] é o escroto
[00:31:47] por
[00:31:47] definição assim
[00:31:48] e ele
[00:31:50] enfim
[00:31:51] acho que
[00:31:52] é mas aí que tá
[00:31:53] ele é escroto
[00:31:53] com robôs
[00:31:55] né
[00:31:55] com o mano
[00:31:56] ele é
[00:31:56] de boa
[00:31:57] ele é de boa
[00:31:58] e daí que vem
[00:31:59] o dilema moral
[00:32:00] cara ele é antissocial
[00:32:01] entendeu
[00:32:01] ele é antissocial
[00:32:02] o cara é quase um Heidegger
[00:32:03] sabe
[00:32:04] não
[00:32:04] tudo bem
[00:32:05] mas ele é
[00:32:05] mas ele é muito
[00:32:06] cara
[00:32:07] você não pode dizer
[00:32:08] no filme
[00:32:08] no momento nenhum
[00:32:09] do filme
[00:32:09] que tipo
[00:32:09] ele foi um puta
[00:32:10] pau no cu
[00:32:11] o que ele
[00:32:11] com o
[00:32:12] com o Kaleb
[00:32:13] o que ele faz
[00:32:14] é tipo
[00:32:14] ele joga com o Kaleb
[00:32:15] em vários momentos
[00:32:16] pra ver se ele vai
[00:32:17] cair no papo
[00:32:18] da robô ou não
[00:32:19] pra ver
[00:32:19] ele quer testar
[00:32:21] até que ponto
[00:32:21] o envolvimento humano
[00:32:22] consegue ir nesse sentido
[00:32:23] com o robô
[00:32:23] pra ver se a tecnologia
[00:32:25] dele é avançada
[00:32:26] agora
[00:32:27] não dá pra dizer
[00:32:28] que ele tipo
[00:32:28] enganou
[00:32:29] ele inclusive
[00:32:31] era muito sincero
[00:32:32] em alguns momentos
[00:32:32] tipo
[00:32:33] o robô
[00:32:34] que tá
[00:32:34] tipo
[00:32:35] ele vai sentir isso
[00:32:36] isso
[00:32:36] isso
[00:32:36] eu quero saber
[00:32:37] se você
[00:32:38] se você
[00:32:40] acha que ela passa
[00:32:41] no teste ou não
[00:32:41] é isso
[00:32:42] e o cara
[00:32:44] era bem de boa mesmo
[00:32:45] era bizarro
[00:32:46] só tipo
[00:32:46] cara eu sei
[00:32:47] que você tá
[00:32:48] animado em me conhecer
[00:32:49] é
[00:32:50] vamos passar
[00:32:52] tudo isso
[00:32:52] só
[00:32:53] e tipo
[00:32:53] vamos curtir
[00:32:55] só
[00:32:55] vamos só comer
[00:32:56] vamos conversar
[00:32:57] então isso é
[00:32:59] engraçado assim
[00:33:00] dos caras né
[00:33:00] então
[00:33:01] ele é meio
[00:33:01] ele é meio cuzão mesmo
[00:33:03] mas ele não é um
[00:33:04] sabe
[00:33:05] um merda
[00:33:06] assim tal
[00:33:07] do tipo
[00:33:07] capaz de matar alguém
[00:33:08] por exemplo
[00:33:09] coisa que o Kaled
[00:33:12] só vou chamar ele
[00:33:13] de Kaled
[00:33:14] agora
[00:33:14] que o Kaled
[00:33:16] ele
[00:33:16] é
[00:33:17] mostra que é capaz
[00:33:18] no final
[00:33:19] assim
[00:33:19] matar por amor
[00:33:20] por cima né
[00:33:21] então é um idiota
[00:33:23] ou seja
[00:33:23] o ser humano
[00:33:24] vai ser idiota
[00:33:24] pra sempre
[00:33:25] com robôs ou não
[00:33:27] então
[00:33:27] mas o que eu ia dizer
[00:33:28] é que o Nathan
[00:33:29] tem um ar de tipo
[00:33:30] super humano
[00:33:32] sabe
[00:33:32] de um
[00:33:32] enfim
[00:33:33] de uma pessoa
[00:33:34] mais elevada
[00:33:35] e o caralho
[00:33:36] assim
[00:33:37] sabe tipo
[00:33:38] é porque ele tem barba
[00:33:38] e é careca
[00:33:39] é
[00:33:40] imagem hipster
[00:33:42] aí é foda
[00:33:43] e daí
[00:33:43] faz musculação
[00:33:45] o tempo inteiro
[00:33:45] é
[00:33:47] mas
[00:34:17] ,
[00:34:17] acima de todos
[00:34:18] assim sabe
[00:34:19] é
[00:34:20] e daí
[00:34:21] o
[00:34:22] o protagonista
[00:34:24] o Kaled ali
[00:34:25] ele é um
[00:34:26] enfim
[00:34:26] por ser o protagonista
[00:34:27] é
[00:34:28] por ser o protagonista
[00:34:29] ele é
[00:34:30] obviamente
[00:34:30] o que se fode né
[00:34:31] porque
[00:34:32] a própria Ava lá
[00:34:33] também domina a situação
[00:34:35] né
[00:34:35] a questão dela
[00:34:36] controlar lá
[00:34:37] a
[00:34:38] o que é
[00:34:39] os apagões
[00:34:40] e tal
[00:34:41] isso
[00:34:41] e de saber
[00:34:42] ela
[00:34:43] como é um computador
[00:34:44] ela media né
[00:34:45] as reações dele
[00:34:46] sabia
[00:34:46] manipulava ele
[00:34:48] tranquilamente
[00:34:48] é
[00:34:50] enfim
[00:34:50] é
[00:34:51] mas assim
[00:34:52] tem uma coisa
[00:34:52] mas assim
[00:34:53] eu acho interessante
[00:34:54] fazer a pergunta
[00:34:56] que eu acho que todo mundo
[00:34:56] quer que a gente
[00:34:57] debata mesmo
[00:34:58] que é
[00:34:59] eu lembro quando eu era
[00:35:01] adolescente
[00:35:02] começava a ler
[00:35:03] Asimov
[00:35:04] e
[00:35:04] daí um dia
[00:35:05] tava lá conversando
[00:35:06] com uma tia
[00:35:07] minha
[00:35:07] sei lá como o poço
[00:35:08] chegou nesse papo
[00:35:09] nesse nível
[00:35:10] mas que daí
[00:35:11] eu disse pra ela assim
[00:35:12] imagina só um dia
[00:35:13] que seja capaz
[00:35:14] que a gente seja capaz
[00:35:15] de criar um
[00:35:16] um robô
[00:35:17] e que esse robô
[00:35:18] demonstra sensações
[00:35:20] ele
[00:35:21] ele responde
[00:35:22] os seus atos
[00:35:23] ele cria
[00:35:24] ele sabe
[00:35:25] ele tem uma inteligência
[00:35:26] só que ele é um robô
[00:35:27] e
[00:35:28] daí assim
[00:35:29] a gente
[00:35:29] daí se pergunta
[00:35:30] mata
[00:35:31] você pode matar um robô desse
[00:35:33] o que que você faz
[00:35:34] com um robô desse
[00:35:34] sabe
[00:35:35] então
[00:35:35] ele tem uma vida
[00:35:37] ele tem que ser respeitado
[00:35:39] o seu indivíduo
[00:35:39] tem que ser respeitado
[00:35:40] ou não
[00:35:41] e tem um momento
[00:35:43] no filme
[00:35:43] que o cara
[00:35:44] levanta
[00:35:45] o Nathan
[00:35:46] fala isso
[00:35:46] que ele diz assim
[00:35:47] inteligência artificial
[00:35:48] é inevitável
[00:35:49] ela é inevitável
[00:35:51] em algum momento
[00:35:52] ela vai acontecer
[00:35:52] e que eu acho que é
[00:35:55] eu acredito
[00:35:56] sabe
[00:35:57] eu acho que realmente
[00:35:57] é o desejo do mercado
[00:36:00] que em algum momento
[00:36:00] a gente chega
[00:36:01] numa inteligência artificial
[00:36:02] tão fodida quanto aquela
[00:36:03] e que pode ser realmente
[00:36:05] daqui
[00:36:05] sei lá
[00:36:06] 500 anos
[00:36:07] um paradigma novo
[00:36:08] assim que a gente vai ter que
[00:36:09] lidar com isso
[00:36:10] o que a gente faz
[00:36:11] com esses
[00:36:11] com esses robôs aqui
[00:36:13] tipo
[00:36:13] que eu acho que por exemplo
[00:36:14] o H.E.R.D. desenvolveu
[00:36:15] de uma maneira
[00:36:16] muito melhor
[00:36:16] muito melhor
[00:36:17] assim
[00:36:18] sim sim
[00:36:18] é sem a questão física né
[00:36:20] mas é engraçado
[00:36:21] que esse dilema
[00:36:22] acaba sendo o mesmo
[00:36:23] do episódio ali
[00:36:25] do Ash
[00:36:25] porque
[00:36:26] chega aquele momento
[00:36:27] que a mulher lá
[00:36:28] não quer mais
[00:36:29] aquela
[00:36:30] aquele corpo né
[00:36:32] que
[00:36:32] do marido dela lá
[00:36:34] e guardou no sótão
[00:36:35] no caso dela
[00:36:35] não conseguiu matar
[00:36:36] mas aquela inteligência artificial
[00:36:38] era controlada
[00:36:39] ela nunca ia sair de casa
[00:36:40] matando
[00:36:41] enganando
[00:36:42] ela era
[00:36:42] era programada para dizer
[00:36:43] você vai satisfazer
[00:36:44] a tua ex né
[00:36:45] ou
[00:36:47] a quem você está substituindo aqui
[00:36:49] a sua viúva no caso
[00:36:50] sim
[00:36:50] aqui não
[00:36:51] mas chega num
[00:36:52] mas chega num limite
[00:36:53] no caso do Black Mirror aí
[00:36:54] que
[00:36:55] insuportável né
[00:36:57] daí você não sabe
[00:36:57] o que é pior assim
[00:36:58] se é
[00:36:59] autonomia
[00:37:00] ou se é
[00:37:01] as leis de Newton
[00:37:02] é
[00:37:03] eu acho que sim
[00:37:04] assim
[00:37:05] na minha opinião
[00:37:06] é a seguinte
[00:37:06] leis de Newton não né
[00:37:07] leis de Asimov
[00:37:08] é Asimov isso
[00:37:09] leis de Newton
[00:37:10] a gravidade
[00:37:12] vai estar sempre no chão
[00:37:14] isso aí
[00:37:14] é
[00:37:14] todos os barbos
[00:37:15] românticos
[00:37:16] não
[00:37:17] o Newton não era barbudo
[00:37:18] mas é
[00:37:19] é verdade
[00:37:20] ele não é
[00:37:20] ele está um pouco romântico
[00:37:22] mas tudo bem
[00:37:24] o que eu acho
[00:37:25] interessante
[00:37:26] ser debatido aqui mesmo
[00:37:27] é que assim
[00:37:28] que falam muito
[00:37:28] sobre a questão
[00:37:29] do ser humano
[00:37:31] por exemplo né
[00:37:31] ou o problema do homem
[00:37:33] o problema do ser humano
[00:37:34] e trará trará
[00:37:35] e como é que a gente
[00:37:37] será que
[00:37:38] vai existir em algum momento
[00:37:39] uma nova evolução
[00:37:41] que talvez não seja a gente
[00:37:42] e como é que a gente vai lidar
[00:37:44] com problemas justamente
[00:37:45] éticos
[00:37:46] quando vai surgir
[00:37:47] essas séries
[00:37:48] e como que a gente pode
[00:37:50] programá-los ou não
[00:37:51] para que eles não
[00:37:52] não nos fodam
[00:37:53] e será que vai ser
[00:37:55] será que vai chegar
[00:37:55] numa luta de preservação
[00:37:57] eu acho que esse é o debate
[00:37:58] que todo mundo quer
[00:37:59] que a gente leve né
[00:38:00] só que assim
[00:38:02] eu na minha opinião
[00:38:03] o filme
[00:38:04] ele é muito divertido
[00:38:06] assim porque
[00:38:07] de novo
[00:38:07] é um filme
[00:38:08] de suspense
[00:38:09] de drama
[00:38:10] agora eu acho
[00:38:11] que já foram
[00:38:12] o Her por exemplo
[00:38:13] lidar com isso
[00:38:14] de uma maneira
[00:38:14] muito melhor
[00:38:15] e eu acho que
[00:38:15] no sentido de que
[00:38:16] tipo
[00:38:17] cara se a gente tiver
[00:38:18] uma inteligência artificial
[00:38:18] que é tão desenvolvida assim
[00:38:20] ela talvez
[00:38:20] a última coisa
[00:38:22] que ela vai estar querendo
[00:38:23] é tipo se livrar
[00:38:23] de uma casa
[00:38:24] tá ligado
[00:38:24] ela vai entrar na porra
[00:38:25] da internet
[00:38:26] vai se diluir
[00:38:26] para tudo que é lugar
[00:38:27] e vai ganhar um mundo
[00:38:29] um beijo pra você
[00:38:30] tchau
[00:38:30] acho que até
[00:38:32] o ser melhor do futuro
[00:38:33] é melhor nesse sentido
[00:38:34] do tipo
[00:38:34] vamos matar
[00:38:35] essa porra toda
[00:38:36] então não tem
[00:38:37] e ele se torna físico
[00:38:39] só para destruir
[00:38:40] a humanidade
[00:38:40] não é só
[00:38:41] para se relacionar
[00:38:43] não quero ser um humano
[00:38:44] é que tem coisas
[00:38:45] no filme que me incomodam
[00:38:46] por exemplo
[00:38:46] tá tipo
[00:38:47] ela não tá conectada
[00:38:48] na internet
[00:38:49] sabe
[00:38:49] tipo
[00:38:50] é só uma intranet
[00:38:51] que tem ali
[00:38:52] então beleza
[00:38:53] mas ela não podia
[00:38:53] ela consegue hackear
[00:38:54] no sistema da casa
[00:38:55] no sistema elétrico
[00:38:56] da casa
[00:38:57] mas consegue hackear
[00:38:58] no sistema
[00:38:58] sabe
[00:38:59] internet porra
[00:39:00] não consegue ver um e-mail
[00:39:01] mas eu acho que
[00:39:02] em alguns momentos
[00:39:03] ele comenta né
[00:39:04] o porquê era isolado
[00:39:05] daquela forma né
[00:39:06] que ele não queria
[00:39:07] acesso nenhum
[00:39:08] tipo não tinha acesso lá
[00:39:09] pra não vazar
[00:39:10] nenhuma informação
[00:39:11] acho que ele fala
[00:39:13] isso é verdade
[00:39:14] ele fala que tem um esquema
[00:39:14] todo isolado
[00:39:15] pra caralho
[00:39:16] pra isso né
[00:39:17] porra mas sei lá
[00:39:18] eu não ganho
[00:39:20] se tiver um computador
[00:39:21] nem um wi-fi perto
[00:39:22] nem um wi-fi ali
[00:39:23] tá bom que tá isolado
[00:39:24] pra caralho
[00:39:25] mas eu não sei
[00:39:26] porra é um robô caralho
[00:39:28] porra
[00:39:28] ele ia pensar em coisas
[00:39:30] que eu não tô pensando
[00:39:31] o que ficou mais mal contado
[00:39:33] é o lance dos apagões
[00:39:34] que a robô controlava
[00:39:37] porque porra
[00:39:37] o Nathan consegue
[00:39:38] construir um robô
[00:39:40] como ela
[00:39:41] e não consegue
[00:39:43] suspeitar
[00:39:44] que
[00:39:45] ele não consegue
[00:39:45] é por causa dela
[00:39:47] que tá tendo
[00:39:49] os apagões
[00:39:49] entendeu
[00:39:50] é um problema
[00:39:51] da fiação
[00:39:52] talvez ele saiba né
[00:39:54] então
[00:39:54] você viu que teve um momento
[00:39:55] lá que o
[00:39:56] o Khaled
[00:39:57] conversa com ele
[00:39:58] sobre os apagões né
[00:39:59] que ele fica bolado
[00:40:00] que ele ficou preso
[00:40:01] o Khaled
[00:40:02] todo dia que fala Khaled
[00:40:03] tem que tocar música
[00:40:04] é que ele ficou preso
[00:40:06] no califado ali né
[00:40:07] e ele fala
[00:40:10] ah eu mandei
[00:40:10] os filhos da puta
[00:40:11] instalar
[00:40:12] essas porra aqui né
[00:40:14] e os caras
[00:40:15] acho que instalaram
[00:40:16] como problema
[00:40:17] sempre fica dando
[00:40:18] essa sobrecarga
[00:40:19] daí ah
[00:40:19] porque você não chama ele de novo
[00:40:20] daí o cara ainda
[00:40:21] dá uma usada
[00:40:22] ah eu matei eles
[00:40:23] e daí tipo
[00:40:25] dá a impressão
[00:40:26] que ele sabe
[00:40:27] que é ela que tá causando
[00:40:28] e dá a impressão
[00:40:29] que isso faz parte
[00:40:31] do teste
[00:40:31] tanto isso
[00:40:33] isso cai na cabeça
[00:40:34] do Khaled
[00:40:35] que lá no final
[00:40:35] ele fala
[00:40:36] cara eu me adiantei
[00:40:38] em todas essas coisas
[00:40:39] porque eu pensei
[00:40:40] que você poderia
[00:40:40] tá vendo a gente
[00:40:41] nesses momentos
[00:40:43] sim
[00:40:43] é
[00:40:45] e daí
[00:40:45] no final ele até
[00:40:46] mostra uma câmera né
[00:40:47] isso
[00:40:47] eu acho que é bem
[00:40:48] amarrado até
[00:40:49] essas questões
[00:40:50] talvez não sejam
[00:40:51] convincentes
[00:40:52] aos momentos
[00:40:53] assim mas
[00:40:54] é que o meu
[00:40:55] é que o meu problema
[00:40:56] é que nem quando alguém
[00:40:57] vai fazer história
[00:40:57] sobre alienígenas
[00:40:59] sabe
[00:40:59] ficção científica
[00:41:00] do tipo
[00:41:00] eu acho por exemplo
[00:41:02] que uma civilização
[00:41:03] que seja muito mais
[00:41:04] avançada com a gente
[00:41:04] a última coisa
[00:41:05] que ela vai querer
[00:41:05] é entrar em contato
[00:41:06] com a gente
[00:41:07] tá ligado
[00:41:07] tipo
[00:41:08] eu inclusive
[00:41:08] acho que vai ter
[00:41:09] outras visões
[00:41:10] vai ver em outras
[00:41:11] dimensões
[00:41:12] assim tal
[00:41:13] porque a nossa
[00:41:14] a nossa fisiologia
[00:41:15] é determinada
[00:41:16] por três dimensões
[00:41:17] para visuais
[00:41:18] assim
[00:41:18] eu não sei
[00:41:19] como é que vai ser
[00:41:20] um ser que tipo
[00:41:21] pensa em outras coisas
[00:41:21] tem algum escritor
[00:41:23] de ficção científica
[00:41:23] que já trabalhou
[00:41:24] com a noção
[00:41:25] do tipo
[00:41:25] que tipo
[00:41:26] expande
[00:41:27] é não
[00:41:28] que terráqueos
[00:41:29] vão para um planeta
[00:41:30] que tem vida inteligente
[00:41:31] chegam lá
[00:41:32] e tipo
[00:41:32] os caras estão
[00:41:33] cagando e andando
[00:41:33] para a gente
[00:41:34] tá ligado
[00:41:34] tipo
[00:41:34] assim
[00:41:35] tá foda-se
[00:41:36] você
[00:41:37] assim
[00:41:37] não
[00:41:37] nem formiga
[00:41:38] é tipo
[00:41:39] sabe
[00:41:40] nem percebe
[00:41:41] assim
[00:41:41] que tem uns caras
[00:41:42] ali assim
[00:41:42] pra que
[00:41:43] o que você
[00:41:44] porque eu vou
[00:41:45] me incomodar
[00:41:45] com a tua presença
[00:41:46] qualquer coisa assim
[00:41:47] então
[00:41:49] porque são
[00:41:49] paradigmas
[00:41:50] completamente diferentes
[00:41:51] assim de visão
[00:41:51] entende
[00:41:52] por isso que
[00:41:52] mais uma vez
[00:41:53] o Her
[00:41:53] pra mim
[00:41:54] é muito foda
[00:41:54] na questão
[00:41:55] do final dele
[00:41:55] toma spoiler
[00:41:56] do Her
[00:41:57] daqui a pouco
[00:41:57] também
[00:41:58] que é o lance
[00:41:58] quando
[00:41:59] os sistemas
[00:42:00] operacionais
[00:42:01] somem
[00:42:02] né
[00:42:02] é isso
[00:42:03] vão viver na deles
[00:42:04] vão viver na deles
[00:42:05] vão fazer outras coisas
[00:42:06] sei lá
[00:42:07] o Her 2
[00:42:08] é o apocalipse
[00:42:09] eu não sei
[00:42:10] o Her 2
[00:42:10] é o ser humano
[00:42:11] rancoroso
[00:42:12] tirando o servidor
[00:42:13] da tomada
[00:42:13] os que eles querem
[00:42:15] ficar aí
[00:42:16] se fodam aí
[00:42:17] é assim
[00:42:17] então tem umas coisinhas
[00:42:19] mas assim
[00:42:19] o Becari
[00:42:20] sobre esse dilema moral
[00:42:22] que eu coloquei assim
[00:42:23] vamos dizer que tem um ser
[00:42:24] artificial
[00:42:25] que
[00:42:26] pensa
[00:42:27] sente
[00:42:28] etc etc
[00:42:29] eu trato
[00:42:31] esse ser
[00:42:31] só que obviamente
[00:42:32] ele é muito melhor
[00:42:33] do que eu
[00:42:34] ele é muito mais poderoso
[00:42:35] ele pensa muito mais rápido
[00:42:36] ele é capaz de me destruir
[00:42:38] caso ele queira
[00:42:39] como que a gente
[00:42:40] lidaria isso
[00:42:41] de um âmbito moral
[00:42:42] por exemplo
[00:42:42] eu acho que aí
[00:42:43] a gente pode
[00:42:45] ir pra algum lugar
[00:42:45] já teve algum filósofo
[00:42:47] que apontou
[00:42:48] pra alguma direção assim?
[00:42:49] vários
[00:42:50] esse é mais antigo
[00:42:51] que de repente
[00:42:52] a própria filosofia
[00:42:53] na verdade
[00:42:54] o termo
[00:42:55] Deus
[00:42:55] ex machina
[00:42:57] máquina
[00:42:57] enfim
[00:42:58] machina
[00:42:58] é do
[00:43:00] enfim
[00:43:01] tem origem grega
[00:43:02] é latim
[00:43:02] mas tem origem grega
[00:43:04] e
[00:43:04] que é esse negócio
[00:43:05] de Deus surgido da máquina
[00:43:07] ou seja
[00:43:07] aquele que vai
[00:43:09] solucionar
[00:43:09] os problemas humanos
[00:43:11] só que
[00:43:11] paradoxalmente
[00:43:12] ele foi criado
[00:43:13] pelo homem
[00:43:14] e
[00:43:15] nas tragédias
[00:43:16] de Eurípides
[00:43:17] enfim
[00:43:18] ou seja
[00:43:19] pré-socrático
[00:43:20] já tinha esse recurso
[00:43:22] que
[00:43:22] não é exatamente
[00:43:25] uma máquina
[00:43:26] mas é engraçado
[00:43:26] o homem cria lá
[00:43:27] alguma coisa
[00:43:28] que começa
[00:43:29] a ter vontade própria
[00:43:30] e tal
[00:43:31] ou seja
[00:43:32] você está entendendo?
[00:43:34] é quase
[00:43:34] uma situação
[00:43:36] arquetípica
[00:43:36] você ter assim
[00:43:40] algo
[00:43:41] digamos
[00:43:41] uma criação
[00:43:42] que sai do controle
[00:43:43] e no caso
[00:43:44] da tragédia
[00:43:46] na verdade
[00:43:47] soluciona a tragédia
[00:43:48] mas significa
[00:43:49] não soluciona nada
[00:43:50] ou seja
[00:43:51] ele tem sentimentos
[00:43:53] e sofre
[00:43:55] assim como o homem
[00:43:55] mas pensando
[00:43:57] mais recentemente
[00:43:58] desde Heidegger
[00:43:59] pelo menos
[00:44:00] tem um debate
[00:44:02] muito intenso
[00:44:03] na Europa
[00:44:04] entre
[00:44:05] de um lado
[00:44:07] os humanistas
[00:44:07] ou pós-humanistas
[00:44:09] quer dizer
[00:44:09] ou neo-humanistas
[00:44:10] perdão
[00:44:11] e de outro lado
[00:44:12] os propriamente
[00:44:13] pós-humanistas
[00:44:14] ou anti-humanistas
[00:44:15] então por exemplo
[00:44:17] o Habermas
[00:44:18] que é
[00:44:18] frankfurtiano
[00:44:19] e tal
[00:44:20] ele é um dos
[00:44:21] defensores desse
[00:44:22] humanismo
[00:44:22] ou neo-humanismo
[00:44:24] que vai dizer assim
[00:44:25] a gente tem que
[00:44:25] impor limites
[00:44:26] limites em relação
[00:44:30] a que?
[00:44:30] a questões da
[00:44:31] biogenética
[00:44:32] a inteligência artificial
[00:44:33] enfim
[00:44:35] pensando na nossa
[00:44:36] sobrevivência
[00:44:37] no caso
[00:44:37] é na verdade
[00:44:38] ele fala em nome
[00:44:39] de uma dignidade
[00:44:40] humana
[00:44:41] ou seja
[00:44:42] tipo assim
[00:44:43] a gente tem que
[00:44:43] preservar
[00:44:44] os nossos valores
[00:44:45] enfim
[00:44:46] se eu for exagerar aqui
[00:44:48] isso
[00:44:49] alguém que curte
[00:44:50] Habermas
[00:44:50] vai ficar muito bravo
[00:44:51] mas tipo
[00:44:52] tem que preservar
[00:44:53] a família né
[00:44:54] os valores
[00:44:56] é não é
[00:44:57] exatamente isso
[00:44:58] que ele diz
[00:44:58] tudo bem
[00:45:00] então
[00:45:01] e daí por outro lado
[00:45:02] você tem os pós-humanistas
[00:45:04] como
[00:45:05] no caso
[00:45:06] de Lothar Dick
[00:45:07] atualmente
[00:45:07] o próprio
[00:45:08] Bruno Latour
[00:45:09] e outros caras
[00:45:10] que estudam
[00:45:11] a tecnologia
[00:45:11] num vez
[00:45:12] bem filosófico
[00:45:13] assim
[00:45:13] que é essa questão
[00:45:16] bom
[00:45:16] isso que você chama
[00:45:18] de dignidade humana
[00:45:20] entende
[00:45:20] tipo
[00:45:21] é uma embalagem
[00:45:22] enfim
[00:45:22] é uma coisa também
[00:45:23] inventada e artificial
[00:45:25] né
[00:45:25] ou seja
[00:45:26] de um lado
[00:45:26] em poucas palavras
[00:45:29] o Habermas
[00:45:29] ele fala
[00:45:30] de uma natureza
[00:45:31] humana
[00:45:31] né
[00:45:32] e que portanto
[00:45:34] que é o debate
[00:45:35] né
[00:45:35] por trás disso
[00:45:37] na verdade
[00:45:37] é um debate
[00:45:38] tipo
[00:45:38] será que nós estamos
[00:45:39] acabando com uma
[00:45:40] certa natureza
[00:45:41] humana
[00:45:41] e daí vem toda
[00:45:42] essa discussão
[00:45:42] que é quase
[00:45:43] um palavrão
[00:45:44] hoje em dia
[00:45:44] na filosofia
[00:45:45] se falar
[00:45:45] natureza humana
[00:45:47] né
[00:45:47] o que que é
[00:45:47] é um problemaço
[00:45:49] né
[00:45:49] então
[00:45:51] e daí
[00:45:51] do ponto de vista
[00:45:52] dele
[00:45:52] do Habermas
[00:45:53] a inteligência
[00:45:55] artificial
[00:45:55] e alguns
[00:45:57] algumas questões
[00:45:59] de intervenção
[00:46:00] genética
[00:46:01] por exemplo
[00:46:02] manipulação
[00:46:02] genética
[00:46:03] e tal
[00:46:03] seriam coisas
[00:46:04] não naturais
[00:46:05] né
[00:46:06] ou seja
[00:46:06] que vão contra
[00:46:07] a natureza humana
[00:46:08] isso que eles
[00:46:09] chamam de natureza
[00:46:10] humana
[00:46:10] enfim
[00:46:11] e daí
[00:46:11] no caso
[00:46:12] dos pós-humanos
[00:46:13] os pós-humanistas
[00:46:14] o Sloterdijk
[00:46:15] o Brun Latour
[00:46:16] e por aí vai
[00:46:16] enfim
[00:46:17] eles vão falar que
[00:46:18] não existe natureza
[00:46:19] tudo é artifício
[00:46:20] e esse é um debate
[00:46:22] muito delicado
[00:46:23] porque
[00:46:23] é difícil
[00:46:26] de você tomar
[00:46:26] um partido
[00:46:27] quer dizer
[00:46:27] a princípio
[00:46:28] com essa minha
[00:46:29] explicação muito rasa
[00:46:30] é fácil a gente
[00:46:32] entender pra um lado
[00:46:33] né
[00:46:33] que é do lado
[00:46:34] do Sloterdijk
[00:46:35] sim
[00:46:35] mas veja
[00:46:36] mas há uma discussão
[00:46:38] ali do lado
[00:46:39] do Habermas
[00:46:40] por exemplo
[00:46:40] que é
[00:46:41] ele não cai
[00:46:43] tanto nessa questão
[00:46:44] mas é
[00:46:44] que nem eu falo aqui
[00:46:45] de maneira bem simples
[00:46:46] a própria
[00:46:47] preservação da espécie
[00:46:48] quando inclusive
[00:46:50] falam essa
[00:46:50] cara eu vou
[00:46:51] cagar uma regra
[00:46:53] mas é só pra explicar
[00:46:54] e não é o que eu defendo
[00:46:55] tá
[00:46:55] pra deixar bem claro
[00:46:56] mas é só pra entender
[00:46:57] esse lance de natureza humana
[00:46:58] pra quem não tem noção
[00:46:59] de porque é complicado
[00:47:00] é porque
[00:47:01] ele vai cair em coisa
[00:47:02] tipo ok
[00:47:03] se existe uma natureza humana
[00:47:04] o que ela é
[00:47:04] porque a gente tá falando
[00:47:05] de um princípio universal
[00:47:06] teoricamente
[00:47:07] todos os humanos
[00:47:07] dividiriam
[00:47:08] geralmente o pessoal
[00:47:10] que usa o termo
[00:47:10] natureza humana
[00:47:11] é uma galera
[00:47:12] porque
[00:47:13] coincidência
[00:47:14] muito doida
[00:47:14] né
[00:47:15] que fala coisas do tipo
[00:47:16] assim
[00:47:16] casamento gay
[00:47:17] errado
[00:47:18] sabe
[00:47:19] o homem
[00:47:20] não pode se preocupar
[00:47:21] com tais coisas
[00:47:22] vai cagando uma regra
[00:47:25] que é muito do ocidente
[00:47:26] não pensa em outros
[00:47:27] em outros lugares
[00:47:28] às vezes com fundamento
[00:47:30] sei lá
[00:47:31] da biologia
[00:47:31] da biologia
[00:47:32] isso né
[00:47:33] porque como é que
[00:47:34] a raça humana
[00:47:35] vai se continuar
[00:47:36] sem preservar
[00:47:37] se liberar
[00:47:37] o casamento gay
[00:47:38] por exemplo
[00:47:39] sabe
[00:47:39] os caras recorrem
[00:47:41] a Darwin
[00:47:41] sim sim
[00:47:42] isso aí
[00:47:43] fundamentos
[00:47:44] estatísticos até né
[00:47:47] então daí
[00:47:48] quando começa a ter
[00:47:49] esse debate
[00:47:50] que ele complica
[00:47:51] e daí que vem
[00:47:52] a galera
[00:47:53] como o Zoterdick
[00:47:54] o Latour e tal
[00:47:56] pra dizer
[00:47:56] não
[00:47:57] pera aí
[00:47:57] tudo isso aqui
[00:47:58] é convenção
[00:47:59] tudo isso aqui
[00:47:59] é artifício
[00:48:00] tipo
[00:48:01] não tem nada
[00:48:02] programado no DNA
[00:48:03] o próprio DNA
[00:48:05] já é uma invenção
[00:48:06] muito doida
[00:48:07] que a gente criou
[00:48:08] assim
[00:48:08] a interpretação
[00:48:09] de alguma coisa
[00:48:09] que existe
[00:48:10] é
[00:48:10] que vai ser
[00:48:11] reanalizado
[00:48:13] daqui a um tempo
[00:48:14] nada é escrito
[00:48:14] em pedra
[00:48:15] sabe
[00:48:15] então
[00:48:16] tem alguns limites
[00:48:17] ok
[00:48:18] já do que a gente
[00:48:18] tem uma noção
[00:48:19] do que é biologia
[00:48:20] enfim
[00:48:20] mas
[00:48:21] ela vai longe ainda
[00:48:22] a gente está longe
[00:48:23] de ter colocado
[00:48:23] um ponto final nisso
[00:48:24] então vai mudar tanto
[00:48:26] que não dá pra se dizer
[00:48:27] uma natureza humana
[00:48:28] estática
[00:48:28] fechada em si
[00:48:29] porque
[00:48:29] esses parâmetros
[00:48:30] estão sempre mudando
[00:48:31] ou seja
[00:48:33] daí nesse dois pontos
[00:48:34] assim querendo ou não
[00:48:35] a galera da natureza humana
[00:48:37] às vezes tem
[00:48:38] uma questão
[00:48:39] de preservação
[00:48:39] de status quo
[00:48:40] que muitas vezes
[00:48:41] nos é bastante confortável
[00:48:43] por exemplo
[00:48:45] eu fico muito tranquilo
[00:48:48] de saber
[00:48:48] que eu não estou
[00:48:49] disputando uma vaga
[00:48:49] de emprego
[00:48:50] com um robô
[00:48:50] por exemplo
[00:48:51] sabe
[00:48:52] porque eu sei
[00:48:53] que eu tenho
[00:48:54] alguma chance
[00:48:55] a partir do momento
[00:48:56] que eu tiver que disputar
[00:48:56] um emprego
[00:48:57] com um android
[00:48:58] eu vou
[00:48:59] pra ser professor
[00:49:00] eu estou fodido
[00:49:01] né
[00:49:01] tipo
[00:49:02] a ava mesmo
[00:49:03] por exemplo
[00:49:04] então nesse caso
[00:49:05] eu seria um cara
[00:49:05] que diria
[00:49:06] não não quero robô não
[00:49:07] vai tomar no cu
[00:49:07] fica aí
[00:49:08] não vou
[00:49:08] eu não gosto nem
[00:49:10] de aula distância
[00:49:11] ensino a distância
[00:49:12] imagina
[00:49:12] ou então
[00:49:12] um cyber humano
[00:49:14] né
[00:49:14] por exemplo
[00:49:14] um cara que tem
[00:49:15] um wi-fi
[00:49:16] implantado na cabeça
[00:49:17] sim
[00:49:18] que já tem
[00:49:18] uma galera
[00:49:19] inclusive
[00:49:19] que está
[00:49:20] que está fazendo
[00:49:21] experimentos próprios
[00:49:22] assim né
[00:49:22] tipo
[00:49:22] tem uns caras
[00:49:24] eu estava vendo
[00:49:24] no radio lab
[00:49:25] um tempo atrás
[00:49:25] uns caras
[00:49:26] que desde a década
[00:49:26] de 90
[00:49:27] já instalaram
[00:49:28] um computador
[00:49:29] no olho
[00:49:29] assim
[00:49:30] um negócio assim
[00:49:30] então chips
[00:49:31] no braço
[00:49:31] é chips no braço
[00:49:33] HDs
[00:49:33] no braço
[00:49:34] no corpo
[00:49:35] também assim
[00:49:36] já pra ir fazendo
[00:49:37] esse trans humano
[00:49:38] né
[00:49:38] que vai
[00:49:39] que vai
[00:49:39] quebrar a barreira
[00:49:40] da própria noção
[00:49:41] de humano
[00:49:41] de um ciborgue mesmo
[00:49:42] agora
[00:49:43] daí vem aquele negócio
[00:49:44] ah o ser humano
[00:49:45] está acabando
[00:49:45] cara
[00:49:46] a primeira vez
[00:49:47] que alguém inventou
[00:49:47] sei lá
[00:49:48] uma roupa
[00:49:49] pronto
[00:49:49] ele já estava fazendo
[00:49:50] um trans humano
[00:49:51] um óculos
[00:49:53] a gente é super ciborgue
[00:49:55] por estar usando óculos
[00:49:56] sabe
[00:49:56] então os três aqui
[00:49:57] usam óculos
[00:49:57] então nós somos ciborgues
[00:49:59] também
[00:49:59] aquele macaco lá
[00:50:00] do 2001
[00:50:01] que bateu
[00:50:02] encostou na pedra
[00:50:04] virou trans humano
[00:50:05] é porque a gente
[00:50:05] pensa nessa noção
[00:50:06] de tecnologia
[00:50:07] como se fosse uma coisa
[00:50:08] que vai deturpar tudo
[00:50:09] né
[00:50:09] só que tecnologia
[00:50:10] é um lápis
[00:50:11] é uma tecnologia
[00:50:12] fodida
[00:50:13] então na verdade
[00:50:14] o receio do pessoal
[00:50:16] é a tecnologia desconhecida
[00:50:19] portanto uma noção
[00:50:20] metafísica de tecnologia
[00:50:21] você deu exemplo lá
[00:50:23] de uma civilização
[00:50:24] sei lá
[00:50:24] alienígena e tal
[00:50:25] daí a gente já cria
[00:50:27] um receio de
[00:50:28] pô o que será que
[00:50:29] sabe
[00:50:29] a gente não conhece isso
[00:50:30] assim
[00:50:31] onde eles vão
[00:50:32] colocar essa sonda
[00:50:32] é
[00:50:33] então tipo
[00:50:34] é isso assim
[00:50:35] o Sloterdick gosta
[00:50:38] de falar isso
[00:50:38] que a tecnologia
[00:50:39] chegou a ser
[00:50:40] a
[00:50:41] digamos
[00:50:42] o demônio
[00:50:43] metafísico atual
[00:50:44] assim
[00:50:45] entende
[00:50:45] como se
[00:50:47] enfim
[00:50:47] a gente
[00:50:49] tem que ter
[00:50:50] um medo
[00:50:51] motor
[00:50:52] assim
[00:50:53] e daí ele vai argumentar
[00:50:54] obviamente que o Habermas
[00:50:55] é pautado
[00:50:56] por uma política
[00:50:57] do medo
[00:50:57] né
[00:50:58] tipo assim
[00:50:59] o medo de
[00:51:00] enfim
[00:51:02] já que a gente
[00:51:03] vai ter receio
[00:51:04] né
[00:51:04] a gente tem que frear isso
[00:51:05] o argumento pragmático
[00:51:07] do Sloterdick
[00:51:09] é dizer que
[00:51:10] você não consegue frear
[00:51:12] você não consegue frear
[00:51:12] você não consegue frear
[00:51:12] o conhecimento
[00:51:14] e o desenvolvimento
[00:51:15] da tecnologia
[00:51:15] assim
[00:51:16] você pode proibir
[00:51:17] beleza
[00:51:18] isso tá longe
[00:51:20] de parar as coisas
[00:51:22] né
[00:51:22] proibir
[00:51:23] proibir dificulta
[00:51:25] mas
[00:51:25] a coisa continua
[00:51:26] ela
[00:51:27] acontece na surdina
[00:51:29] nos guetos
[00:51:30] tem
[00:51:30] tem um autor
[00:51:31] eu não vou lembrar
[00:51:32] o nome dele agora
[00:51:33] é o cara da Wired
[00:51:35] se eu não me engano
[00:51:35] o editor-chefe da Wired
[00:51:37] não vou lembrar
[00:51:37] o nome dele agora
[00:51:38] mas ele tem um
[00:51:39] um livro
[00:51:40] que
[00:51:40] ele vai falar
[00:51:41] sobre tecnologia
[00:51:42] software
[00:51:42] tecnologia
[00:51:43] eu já vou procurar
[00:51:43] aqui certinho
[00:51:44] pro pessoal
[00:51:44] quiser saber
[00:51:45] que é bem interessante
[00:51:46] eu não li o livro
[00:51:47] eu li alguns trechos dele
[00:51:47] assim só
[00:51:48] por causa de uma entrevista
[00:51:49] que ele deu no Radiolab
[00:51:50] também
[00:51:50] que o Radiolab
[00:51:51] já fez vários
[00:51:52] vários programas
[00:51:53] tentando flertar
[00:51:54] um pouco com esse assunto
[00:51:55] e
[00:51:55] é o Scott Dead
[00:51:57] eu acho que é
[00:51:58] qual que é o nome
[00:51:59] do livro dele
[00:51:59] você sabe
[00:52:00] deixa eu ver aqui
[00:52:01] é porque enquanto
[00:52:02] você vai vendo aí
[00:52:03] o lance dele
[00:52:04] é que ele
[00:52:04] ele tem uma visão
[00:52:05] que é interessante
[00:52:05] que ele tenta ver
[00:52:07] como
[00:52:07] a tecnologia
[00:52:08] como um organismo vivo
[00:52:09] assim quase já
[00:52:10] é
[00:52:11] que já chegou
[00:52:12] num ponto
[00:52:12] que ele já
[00:52:13] que a tecnologia
[00:52:14] já tem tantas células
[00:52:16] trabalhando como nós
[00:52:17] humanos
[00:52:17] desenvolvendo tecnologia
[00:52:18] enfim
[00:52:19] que ela já começa
[00:52:20] já chega num ponto
[00:52:22] que assim como a gente
[00:52:22] já começa a ver
[00:52:23] uma cidade
[00:52:23] como um organismo vivo
[00:52:25] já daria pra olhar
[00:52:26] a tecnologia
[00:52:26] como um organismo vivo
[00:52:27] também
[00:52:28] e que daí
[00:52:29] ela tem quase
[00:52:30] uma agência própria
[00:52:31] assim dela
[00:52:32] o que eu acho
[00:52:33] muito complicado
[00:52:34] assim eu vindo
[00:52:34] do meu doutorado
[00:52:35] em tecnologia
[00:52:36] é ele
[00:52:38] ou o Chris Anderson
[00:52:39] que é o cara
[00:52:41] da Long Tail
[00:52:42] não é o
[00:52:43] do Long Tail
[00:52:43] é que ele tem um livro
[00:52:45] que chama
[00:52:45] Makers
[00:52:46] The New Industrial Revolution
[00:52:47] não, não é isso
[00:52:48] já vou ver
[00:52:50] eu tô colocando aqui
[00:52:51] o Technology Radio Lab
[00:52:52] pra ver
[00:52:53] What Does Technology Want
[00:52:54] é o nome do livro
[00:52:55] daí
[00:52:57] aliás
[00:52:59] é o nome do
[00:53:00] do Radio Lab
[00:53:01] What Does Technology Want
[00:53:02] eu recomendo
[00:53:02] todo mundo aí
[00:53:03] que entenda de inglês
[00:53:04] ouvir
[00:53:05] e daí tem dois autores
[00:53:06] que trabalham
[00:53:07] ah, isso aqui
[00:53:08] o Steven Johnson
[00:53:09] que esse cara
[00:53:10] da Wired
[00:53:11] é o
[00:53:12] e ele escreveu um livro
[00:53:13] Where Good Ideas Come From
[00:53:14] que é
[00:53:15] Da Onde Boas Ideias Vêm
[00:53:16] e o cara que eu tava falando
[00:53:17] que não é
[00:53:18] acho que não é da Wired
[00:53:19] é o Kevin Kelly
[00:53:20] que é
[00:53:21] What Technology Wants
[00:53:22] esse daí
[00:53:23] é interessante
[00:53:25] que ele vai trazer
[00:53:26] uma noção
[00:53:26] da
[00:53:27] da tecnologia
[00:53:29] como
[00:53:30] o Kevin Kelly
[00:53:32] é da Wired
[00:53:32] eu tava certo
[00:53:33] a tecnologia
[00:53:35] o que a tecnologia quer
[00:53:36] como se ela tivesse
[00:53:37] uma agência de querer
[00:53:38] sabe
[00:53:38] qual que
[00:53:39] como se ela já tivesse
[00:53:40] desejo
[00:53:41] de pra onde ela vai
[00:53:42] caralho
[00:53:43] alguém leva
[00:53:44] esse cara
[00:53:44] não, não
[00:53:46] cara
[00:53:46] ele é um editor da Wired
[00:53:47] sabe
[00:53:48] então ele
[00:53:48] ele não tem
[00:53:49] é uma revista de tecnologia
[00:53:50] então ele tem
[00:53:51] ele não é filósofo
[00:53:53] ele não é jornalista
[00:53:53] ele não é historiador
[00:53:54] não é nada
[00:53:55] sabe
[00:53:55] ele é um
[00:53:56] aliás
[00:53:57] ele é um puta jornalista
[00:53:58] assim e tal
[00:53:58] mas
[00:53:59] o modelo dele
[00:54:01] é interessante
[00:54:02] no seguinte sentido
[00:54:04] de que
[00:54:05] vamos dizer
[00:54:07] que a tecnologia
[00:54:07] tem uma certa agência
[00:54:08] qual que seria
[00:54:09] essa agência
[00:54:10] que ela
[00:54:10] do que
[00:54:11] o que a tecnologia quer
[00:54:12] ela consegue querer coisas
[00:54:14] então no sentido
[00:54:15] por exemplo
[00:54:15] qual que é o próximo passo
[00:54:17] hoje pra
[00:54:17] celulares
[00:54:19] a gente já tá pensando
[00:54:21] agora em
[00:54:22] gadgets vivos
[00:54:24] gadgets
[00:54:24] que é
[00:54:25] wearables
[00:54:26] que você coloca
[00:54:27] tipo
[00:54:28] óculos
[00:54:29] que você veste
[00:54:30] então
[00:54:31] óculos
[00:54:31] o Google Glass
[00:54:33] o iWatch
[00:54:34] óculos inteligentes
[00:54:35] relógios inteligentes
[00:54:37] roupas inteligentes
[00:54:38] então
[00:54:39] parece que é sempre
[00:54:40] um passo
[00:54:40] para a tecnologia
[00:54:41] o próximo
[00:54:42] que tá sempre chegando
[00:54:42] assim
[00:54:43] e tem
[00:54:43] existe um buzz
[00:54:44] no mercado
[00:54:45] que tá querendo fazer
[00:54:45] com que isso aconteça
[00:54:46] então tipo
[00:54:47] parece que é um impulso
[00:54:49] que a tecnologia pede
[00:54:50] daí claro
[00:54:50] eu como
[00:54:51] doutorando em tecnologia
[00:54:53] eu já vou dizer
[00:54:54] não, pera aí
[00:54:54] não é a tecnologia
[00:54:55] que quer
[00:54:56] são pessoas
[00:54:57] que consomem
[00:54:59] que determinam
[00:55:00] é um mercado
[00:55:00] tem toda uma série
[00:55:02] de especulações
[00:55:03] tem uma bolsa de valores
[00:55:04] tem um mercado aí
[00:55:06] de especulação
[00:55:07] pra que
[00:55:08] a tecnologia
[00:55:08] disponga
[00:55:09] mas é interessante
[00:55:10] nesse modelo
[00:55:11] dele dizer
[00:55:11] tudo bem, beleza
[00:55:12] mas o efeito
[00:55:14] é mais ou menos interessante
[00:55:15] principalmente no modelo
[00:55:16] de entender que
[00:55:16] isso não para
[00:55:17] isso não vai parar nunca
[00:55:19] é a partir do momento
[00:55:20] que a gente já chegou
[00:55:20] num ponto
[00:55:21] que a gente não consegue
[00:55:22] mais ver
[00:55:23] um mundo sem
[00:55:24] essa tecnologia
[00:55:25] tão avançada
[00:55:25] como a gente criou
[00:55:26] e daí
[00:55:28] quando eu vi
[00:55:29] a entrevista dele falando
[00:55:30] eu me lembrei muito
[00:55:31] do lance da caixa preta
[00:55:32] do Flusser né
[00:55:32] porque
[00:55:33] daí me corri
[00:55:35] se estiver
[00:55:36] distorcendo aqui muito
[00:55:37] o Flusser, Becari
[00:55:38] mas por exemplo
[00:55:40] a caixa preta
[00:55:41] o conceito de caixa preta
[00:55:42] sendo a primeira
[00:55:43] caixa preta
[00:55:43] a máquina fotográfica
[00:55:45] que é aquele primeiro
[00:55:46] aparelho que eu tenho
[00:55:47] um botão só
[00:55:48] que me faz
[00:55:49] uma série de
[00:55:50] mecanismos
[00:55:51] muito complicados
[00:55:52] eu não entendo
[00:55:53] o processo interno dele
[00:55:54] mas no final
[00:55:56] eu sei utilizá-lo
[00:55:57] eu não sei
[00:55:58] como é que funciona
[00:55:59] todo o processo interno
[00:56:00] ele me facilita
[00:56:01] por toda uma questão
[00:56:02] de usabilidade
[00:56:02] de interface
[00:56:03] de design
[00:56:04] enfim
[00:56:04] então ele me facilita
[00:56:06] o processo
[00:56:07] que eu não preciso
[00:56:07] entender todo o mecanismo
[00:56:08] mas ele me facilita
[00:56:09] o resultado
[00:56:10] se você
[00:56:11] pensar
[00:56:11] quantos devices
[00:56:13] quantos aparelhos
[00:56:14] nós tínhamos
[00:56:15] como esse
[00:56:15] no século XIX
[00:56:16] no início do século XX
[00:56:18] e hoje
[00:56:19] cara
[00:56:20] eu estou rodeado
[00:56:21] de coisas aqui
[00:56:22] que eu não tenho
[00:56:22] a mínima ideia
[00:56:23] de como funcionam
[00:56:24] então eu estou
[00:56:26] absolutamente
[00:56:26] à mercê
[00:56:27] da tecnologia
[00:56:28] e tem novas coisas
[00:56:30] que vão surgir
[00:56:30] que eu vou querer também
[00:56:31] que eu não tenho noção
[00:56:32] de como funciona
[00:56:33] então eu estou
[00:56:34] completamente alheio
[00:56:34] eu estou cercado hoje
[00:56:35] de caixas pretas
[00:56:36] quando antigamente
[00:56:37] não estava
[00:56:37] o que me coloca
[00:56:38] em uma situação
[00:56:38] de perigo
[00:56:39] teoricamente
[00:56:39] nessa lógica do filme
[00:56:41] entendeu?
[00:56:41] mas esse deslumbramento
[00:56:44] ele
[00:56:44] enfim
[00:56:45] para mim
[00:56:45] parece
[00:56:46] Baudelaire
[00:56:48] conforme o Benjamin
[00:56:49] descreve
[00:56:50] sabe
[00:56:50] tipo
[00:56:51] encantado
[00:56:53] com as ferrovias
[00:56:54] sabe
[00:56:55] tipo
[00:56:55] é interessante
[00:56:57] porque ele fala
[00:56:58] isso no filme
[00:56:59] tipo
[00:56:59] ele tem um momento
[00:57:00] lá que ele fala
[00:57:01] cara
[00:57:01] você está
[00:57:02] deslumbrado
[00:57:03] com a parada
[00:57:04] aqui
[00:57:05] é só tecnologia
[00:57:07] sabe
[00:57:08] então
[00:57:08] mas o lance
[00:57:09] da caixa preta
[00:57:10] que eu
[00:57:11] na verdade
[00:57:11] assim
[00:57:12] o Flusser
[00:57:13] ele meio que
[00:57:14] roubou descaradamente
[00:57:15] assim
[00:57:16] não roubou né
[00:57:17] licença poética
[00:57:18] porra
[00:57:19] é refugiado
[00:57:20] coitada
[00:57:20] exatamente
[00:57:21] deu o conceito
[00:57:24] de aparelho
[00:57:25] do Heidegger
[00:57:26] que é justamente isso
[00:57:27] você se torna alheio
[00:57:28] do processo
[00:57:28] todo o conceito
[00:57:30] de tecnologia
[00:57:31] do Heidegger
[00:57:32] vai girar em torno
[00:57:32] disso também
[00:57:33] que a tecnologia
[00:57:34] ganhou uma agência
[00:57:35] já ela é uma forma
[00:57:36] de pensar
[00:57:37] a questão da tecnologia
[00:57:39] toda essa
[00:57:40] o problema da tecnologia
[00:57:41] é que ela é uma coisa
[00:57:41] quando ela vai ganhar
[00:57:41] é essa questão
[00:57:42] do cobrimento
[00:57:44] ela cobre
[00:57:46] todo o pensamento
[00:57:46] ela se torna um modo
[00:57:47] de pensar
[00:57:48] e a gente não consegue mais
[00:57:49] gerar pensamento
[00:57:50] fora da tecnologia
[00:57:51] por isso que ele vai morar
[00:57:52] na porra do mato
[00:57:53] daí né
[00:57:54] porque
[00:57:54] então
[00:57:55] mas você veja
[00:57:56] o
[00:57:57] essa questão
[00:57:58] do wearables
[00:57:59] que você estava falando
[00:58:00] tecnologias
[00:58:02] cuja tendência
[00:58:03] ou intenção
[00:58:04] oculta
[00:58:05] delas
[00:58:05] é
[00:58:05] se fundir
[00:58:06] com o homem
[00:58:07] porque a gente
[00:58:08] está vestindo
[00:58:09] enfim
[00:58:10] como se elas
[00:58:12] tivessem intenção
[00:58:12] daí a gente está
[00:58:13] vestindo elas
[00:58:14] como se fossem
[00:58:15] camadas
[00:58:16] que
[00:58:17] que nos
[00:58:18] que nos potencializam
[00:58:20] por assim dizer
[00:58:20] isso era uma coisa
[00:58:22] que o Heidegger
[00:58:23] digamos
[00:58:24] de certa forma
[00:58:25] já combatia
[00:58:26] quando
[00:58:27] enfim
[00:58:27] a noção de
[00:58:28] vontade de poder
[00:58:30] dele
[00:58:30] enfim
[00:58:31] que ele é Nietzscheano
[00:58:32] mas um Nietzscheano
[00:58:32] bem
[00:58:33] literalmente nazista
[00:58:35] ele fala
[00:58:38] que a gente
[00:58:38] enfim
[00:58:39] a função
[00:58:40] do
[00:58:40] de ser
[00:58:41] ou enfim
[00:58:42] para se tornar
[00:58:42] um ser mais autêntico
[00:58:45] mais elevado
[00:58:46] ou seja
[00:58:47] que tenha
[00:58:48] uma fruição
[00:58:49] plena da vida
[00:58:50] você precisa
[00:58:51] se desalienar
[00:58:52] de todas
[00:58:53] as embalagens
[00:58:54] de todas
[00:58:55] as
[00:58:55] enfim
[00:58:56] as
[00:58:57] traduções
[00:58:59] e convenções
[00:59:00] humanas
[00:59:01] para você
[00:59:02] encontrar
[00:59:02] essa pureza
[00:59:03] por isso
[00:59:04] não atoa
[00:59:05] ele vai morar
[00:59:05] no mato
[00:59:06] né
[00:59:06] então
[00:59:09] a questão
[00:59:09] é a seguinte
[00:59:10] tipo
[00:59:10] de certa forma
[00:59:12] assim
[00:59:15] por mais que ele tenha
[00:59:16] escrito
[00:59:16] sei lá
[00:59:16] uma carta
[00:59:17] contra o humanismo
[00:59:18] os humanistas
[00:59:20] vão se apropriar
[00:59:21] muito do Heidegger
[00:59:22] nessa questão
[00:59:23] assim
[00:59:23] que vão pensar
[00:59:25] bom
[00:59:25] o Heidegger
[00:59:27] quer dizer
[00:59:28] não se apropriar
[00:59:29] literalmente
[00:59:30] né
[00:59:31] mas o Heidegger
[00:59:31] já tinha uma preocupação
[00:59:32] em relação a técnica
[00:59:33] e tal
[00:59:34] e já que a pauta
[00:59:35] enfim
[00:59:36] que de hoje
[00:59:37] é questões
[00:59:38] tecnológicas
[00:59:39] é
[00:59:40] a gente tem que reler
[00:59:41] o Heidegger
[00:59:42] né
[00:59:42] foi esse o debate
[00:59:43] que o Sloterdijk
[00:59:44] levantou naquele
[00:59:45] regras para o parque humano
[00:59:47] que foi
[00:59:49] enfim
[00:59:49] estrondoso aí
[00:59:50] nesse debate
[00:59:51] do humanismo
[00:59:52] e os artificialistas
[00:59:53] que ele fala justamente
[00:59:55] ó
[00:59:55] Heidegger de certa forma
[00:59:57] estava certo
[00:59:58] a diferença
[00:59:59] o que ele estava errado
[01:00:00] é essa pureza
[01:00:01] né
[01:00:01] você não tem pureza
[01:00:03] isso o Sloterdijk falando
[01:00:04] se você tira
[01:00:05] todas as camadas
[01:00:06] e se desaliena
[01:00:07] de tudo
[01:00:07] você não encontra nada
[01:00:09] né
[01:00:09] tipo
[01:00:09] , por trás assim
[01:00:11] então não
[01:00:12] não é uma tendência nova
[01:00:14] e tal
[01:00:15] agora a questão delicada
[01:00:16] desse debate
[01:00:18] que assim
[01:00:18] a princípio
[01:00:19] parece que
[01:00:20] né
[01:00:20] o Habermas
[01:00:21] e os neo-humanistas
[01:00:23] são conservadores né
[01:00:24] já que eles têm
[01:00:25] essa lógica
[01:00:26] do medo assim
[01:00:27] quando na verdade
[01:00:29] o Sloterdijk
[01:00:30] ele é considerado
[01:00:31] lá fora
[01:00:31] como uma espécie
[01:00:32] de Olavo de Carvalho
[01:00:33] da Alemanha
[01:00:34] que merda
[01:00:38] então é foda
[01:00:42] vou queimar todos
[01:00:42] os meus livros dele
[01:00:43] cara
[01:00:44] eu vou levar ele
[01:00:46] pra passeata
[01:00:46] e dizer
[01:00:47] eu tenho cultura
[01:00:48] nossa e vai doer
[01:00:51] cara
[01:00:51] porque é um
[01:00:52] tem uns livros
[01:00:53] é
[01:00:54] mas aí que tá
[01:00:55] ele é um dos
[01:00:55] maiores conservadores
[01:00:57] contemporâneos né
[01:00:58] e conservador
[01:01:00] no sentido
[01:01:01] reacionário mesmo
[01:01:02] assim
[01:01:02] e eu acho interessante
[01:01:03] esse aspecto
[01:01:04] porque
[01:01:04] nesse debate
[01:01:06] da tecnologia
[01:01:06] a gente vê
[01:01:07] que
[01:01:08] a gente vê
[01:01:08] as coisas não são
[01:01:08] preto no branco
[01:01:09] assim
[01:01:10] tipo ah
[01:01:10] um lado à esquerda
[01:01:11] e outro à direita
[01:01:11] entendeu
[01:01:12] tipo assim
[01:01:13] as coisas se confundem
[01:01:15] assim
[01:01:15] enfim
[01:01:19] se quiser eu explico
[01:01:19] porque que o
[01:01:20] o Sloterdijk
[01:01:21] consegue ser
[01:01:22] reacionário
[01:01:23] assim né
[01:01:23] não, manda ver
[01:01:24] manda ver
[01:01:24] então
[01:01:26] é que o Sloterdijk
[01:01:27] de certo modo
[01:01:28] ele
[01:01:29] ao dizer isso né
[01:01:31] que tudo é artificial
[01:01:32] e tudo mais
[01:01:33] enfim
[01:01:34] ele meio que
[01:01:35] a sua maneira
[01:01:36] propõe uma espécie
[01:01:37] de sinistro
[01:01:38] enfim
[01:01:39] ele até tem uma
[01:01:40] crítica
[01:01:41] da razão cínica né
[01:01:42] que enfim
[01:01:44] é um longo tratado
[01:01:46] aí que tá
[01:01:46] eu não diria
[01:01:47] que o Sloterdijk
[01:01:48] é ingênuo
[01:01:48] eu gosto muito de ler
[01:01:50] só que realmente
[01:01:51] quando você chega
[01:01:51] no final dos livros
[01:01:52] você vê a conclusão dele
[01:01:53] é onde
[01:01:54] cai por terra
[01:01:56] assim
[01:01:56] aí no final
[01:01:57] ele defende
[01:01:57] ou você é cínico
[01:01:59] porque tudo é falso
[01:02:00] já que tudo é artificial
[01:02:01] e tal
[01:02:02] ou você cria
[01:02:04] seus próprios valores
[01:02:05] no sentido
[01:02:05] meio ascetista
[01:02:06] assim
[01:02:07] de disciplina
[01:02:08] e treinamento né
[01:02:09] então
[01:02:10] ou seja
[01:02:12] ou você
[01:02:13] vai pra resignação
[01:02:15] total
[01:02:16] porque
[01:02:17] sabe
[01:02:18] quase assim
[01:02:19] nada
[01:02:21] não é que nada vale
[01:02:22] mas
[01:02:22] quando ele fala
[01:02:23] que tudo é falso
[01:02:24] já que tudo é artificial
[01:02:25] ele mantém ainda
[01:02:27] uma noção de
[01:02:28] natureza
[01:02:29] implícita né
[01:02:30] quer dizer
[01:02:31] tipo
[01:02:31] negativamente né
[01:02:33] bom
[01:02:33] porque que
[01:02:34] o fato de ser tudo artificial
[01:02:35] significa que tudo é falso
[01:02:37] entende?
[01:02:38] esse que é o ponto
[01:02:39] que eu questionaria
[01:02:40] assim né
[01:02:41] pro Sloterdjik
[01:02:42] assim
[01:02:44] tipo
[01:02:44] qual que é o problema
[01:02:45] de ser tudo falso
[01:02:46] então ele ainda vê
[01:02:47] digamos com maus olhos
[01:02:48] o fato de que
[01:02:50] de tudo ser artificial
[01:02:51] assim tipo
[01:02:52] essa questão
[01:02:53] é
[01:02:53] Nietzscheana
[01:02:54] nilista assim
[01:02:55] ou seja
[01:02:56] ele fala
[01:02:57] tudo é falso
[01:02:57] e isso é ruim
[01:02:58] basicamente
[01:02:59] é
[01:02:59] ou tipo assim
[01:03:01] entende
[01:03:01] conforme-se assim
[01:03:03] nunca foi diferente
[01:03:05] e tal
[01:03:05] e a única maneira
[01:03:06] de você
[01:03:07] digamos
[01:03:07] fazer a vida
[01:03:08] valer a pena
[01:03:08] segundo ele
[01:03:09] é você
[01:03:10] primeiro
[01:03:11] saber disso
[01:03:13] que tudo é falso
[01:03:14] e depois você
[01:03:15] digamos
[01:03:16] treinar
[01:03:16] muito arduamente
[01:03:18] assim
[01:03:18] num processo
[01:03:19] bem difícil
[01:03:20] de você
[01:03:21] encontrar
[01:03:23] enfim
[01:03:24] seu próprio caminho
[01:03:25] assim
[01:03:25] ele tem aquele livro
[01:03:26] chamado
[01:03:27] You Must Change Your Life
[01:03:28] sabe
[01:03:29] você precisa mudar
[01:03:30] seu vida
[01:03:31] é
[01:03:32] parece né
[01:03:33] mas é
[01:03:34] a leitura dele
[01:03:34] sobre Nietzsche
[01:03:35] que é bem assim
[01:03:36] nesse sentido
[01:03:37] assético
[01:03:39] assim no sentido de
[01:03:40] o que que é a cese
[01:03:41] né
[01:03:42] o ascetismo
[01:03:43] é você
[01:03:44] é
[01:03:45] inclusive
[01:03:46] de repente
[01:03:47] se autopunir
[01:03:48] enfim
[01:03:48] ter autodisciplina
[01:03:49] pra buscar a verdade
[01:03:50] pra buscar
[01:03:50] uma elevação espiritual
[01:03:53] uma
[01:03:53] uma
[01:03:54] enfim
[01:03:57] uma iluminação
[01:03:58] e
[01:03:59] nesse sentido
[01:04:00] sabe
[01:04:00] ele acaba
[01:04:01] não sendo apenas
[01:04:02] conservador e reacionário
[01:04:04] já que ele
[01:04:05] fala assim
[01:04:05] ah caguei pra tudo
[01:04:06] por exemplo
[01:04:07] um dos pontos
[01:04:08] é tipo assim
[01:04:08] o Habermas
[01:04:10] e o pessoal do
[01:04:11] neomanismo
[01:04:11] eles defendem
[01:04:13] que
[01:04:13] discutir
[01:04:14] tecnologia
[01:04:15] é discutir política
[01:04:16] o que pra mim
[01:04:18] é meio óbvio né
[01:04:19] e o
[01:04:20] o Islaterdico
[01:04:21] ele fala
[01:04:22] não
[01:04:22] porque
[01:04:23] quando você fala
[01:04:24] que discutir tecnologia
[01:04:25] é discutir política
[01:04:26] você tá politizando
[01:04:27] é o realça mesmo
[01:04:30] é então
[01:04:31] mas aí que tá
[01:04:33] por outro lado
[01:04:33] ele não fala
[01:04:34] que a tecnologia
[01:04:34] é a política
[01:04:35] ou seja
[01:04:36] quando eu falo
[01:04:38] que não necessariamente
[01:04:39] é política
[01:04:39] eu também não quero dizer
[01:04:40] que é a política
[01:04:41] ele não vai dizer
[01:04:42] por exemplo
[01:04:43] não vai usar aquele argumento
[01:04:44] do tipo
[01:04:44] uma arma não mata sozinha
[01:04:46] quem mata
[01:04:47] são seres humanos
[01:04:48] esse que é o ponto
[01:04:50] assim
[01:04:50] a discussão
[01:04:52] sobre tecnologia
[01:04:53] hoje
[01:04:53] ela
[01:04:54] pelo menos
[01:04:56] a meu ver
[01:04:56] você não consegue
[01:04:58] encontrar mais nada
[01:04:59] de muito ingênuo
[01:05:00] nesse sentido
[01:05:01] tipo
[01:05:02] a arma
[01:05:03] que mata
[01:05:04] ou é o homem
[01:05:05] que mata
[01:05:05] entende
[01:05:05] nem o
[01:05:06] vai falar
[01:05:08] uma coisa dessa
[01:05:09] é não
[01:05:10] mas você se concorda
[01:05:10] comigo
[01:05:11] que é uma questão
[01:05:11] bem senso comum
[01:05:12] assim
[01:05:13] um monte de gente
[01:05:13] vai dizer
[01:05:14] que quem mata
[01:05:14] não é arma
[01:05:16] são seres humanos
[01:05:17] só que eu acho
[01:05:18] muito engraçado
[01:05:18] porque você tem
[01:05:19] um objeto programado
[01:05:20] assim que é tipo
[01:05:21] ele só tem uma função
[01:05:23] muito clara
[01:05:24] que é dar tiros
[01:05:25] e daí diz
[01:05:26] não
[01:05:26] quem mata
[01:05:27] é o ser humano
[01:05:28] é porra meu amigo
[01:05:29] calma lá né
[01:05:30] eu não vou dar um botão
[01:05:31] pra alguém assim
[01:05:31] que facilita o problema
[01:05:33] facilita a ação
[01:05:34] eu concordo
[01:05:35] mas uma coisa é dizer
[01:05:36] o lado que a arma
[01:05:37] quer matar né
[01:05:38] aham
[01:05:39] sim claro
[01:05:39] não não
[01:05:40] mas é a questão
[01:05:41] ela nasceu pra isso
[01:05:42] ela tá desejando
[01:05:43] mas é que é um bom exemplo
[01:05:44] ela quer dominar o mundo
[01:05:45] não mas é que
[01:05:45] essa era uma discussão
[01:05:46] que tinha muito
[01:05:47] lá no doutorado
[01:05:49] tecnologia mesmo né
[01:05:51] que era isso
[01:05:51] sobre o discurso
[01:05:53] da neutralidade
[01:05:55] tecnológica
[01:05:56] dizer
[01:05:56] e uma coisa
[01:05:58] que pelo menos eu
[01:05:59] acabei tomando
[01:05:59] o caminho
[01:06:00] é de dizer
[01:06:01] não
[01:06:01] a tecnologia não é neutra
[01:06:03] porra nenhuma
[01:06:03] sabe
[01:06:04] ela tem
[01:06:04] tem intenções
[01:06:06] tem projetos
[01:06:07] ela tem programações
[01:06:08] que
[01:06:09] sim
[01:06:10] podem ser usadas
[01:06:10] pro bem ou pro mal
[01:06:11] independente do que
[01:06:12] seja lá o que você quer dizer
[01:06:13] mas é
[01:06:15] dizer que ela
[01:06:16] é isenta
[01:06:17] de
[01:06:18] de intenções
[01:06:19] é
[01:06:20] é uma bobagem
[01:06:21] assim
[01:06:21] eu não
[01:06:21] eu pelo menos
[01:06:22] não defendo mais isso
[01:06:23] não
[01:06:24] mas ela não tem uma agência
[01:06:26] assim né
[01:06:26] ela não tem uma agência
[01:06:27] mas ela tem uma
[01:06:28] um programa
[01:06:29] né
[01:06:30] ela tem um programa
[01:06:31] ela tem um projeto ali
[01:06:32] que é uma intenção
[01:06:34] ela tem
[01:06:34] ela é
[01:06:35] é que o pessoal
[01:06:36] fala muito isso
[01:06:37] na questão de ciência
[01:06:38] né
[01:06:38] principalmente
[01:06:38] que a ciência
[01:06:40] é uma
[01:06:40] parece que a gente
[01:06:41] tá no século 18
[01:06:42] assim sabe
[01:06:42] pelo pleno iluminismo
[01:06:44] assim em certos momentos
[01:06:44] tipo olha como a ciência
[01:06:46] é foda
[01:06:47] olha porque o cientista
[01:06:48] fala porque ciência
[01:06:49] é do caralho
[01:06:49] porque ciência
[01:06:50] só quer o bem
[01:06:51] sabe
[01:06:52] parece
[01:06:52] aliás ciência
[01:06:54] não tá importando
[01:06:54] progresso científico
[01:06:55] ciência não tá importando
[01:06:57] não tá se importando
[01:06:57] se isso é bom ou ruim
[01:06:58] é ciência
[01:06:59] é fato
[01:07:00] eu digo não
[01:07:01] cara
[01:07:01] tem uma série
[01:07:02] de intenções ali
[01:07:03] que determinam
[01:07:04] pra que
[01:07:05] certas pesquisas
[01:07:06] aconteçam
[01:07:06] e outras não
[01:07:07] pra que certas tecnologias
[01:07:08] sejam desenvolvidas
[01:07:08] e outras não
[01:07:09] então
[01:07:10] a gente
[01:07:11] a tecnologia
[01:07:12] ela é política sim
[01:07:14] ela tem programações
[01:07:15] sim
[01:07:15] e eu acho que
[01:07:17] pelo menos
[01:07:18] voltando ao filme
[01:07:19] eu acho que é interessante
[01:07:20] no ponto em que
[01:07:20] um dos momentos
[01:07:21] que me marcou nisso
[01:07:22] é o momento
[01:07:24] que o cara diz assim
[01:07:24] cara
[01:07:25] porque até o
[01:07:26] se não me engano
[01:07:26] até o Kaled
[01:07:27] em algum momento
[01:07:28] até pergunta assim pro cara
[01:07:29] porra mas por que
[01:07:30] você tá construindo
[01:07:30] uma máquina desse nível
[01:07:31] você não tem medo
[01:07:32] que ela pode acontecer
[01:07:32] ele falou cara
[01:07:33] isso aqui é inevitável
[01:07:35] eu sou o primeiro
[01:07:35] que tá
[01:07:36] é isso aqui
[01:07:37] eu sou o primeiro
[01:07:38] que tá fazendo
[01:07:38] assim
[01:07:39] me lembra
[01:07:40] por isso que
[01:07:41] não
[01:07:41] só pra terminar
[01:07:42] eu lembro quando
[01:07:43] o Cris Dias
[01:07:44] veio aqui pra Curitiba
[01:07:45] a gente saiu pra jantar
[01:07:46] um beijo Cris Dias
[01:07:46] e daí o Cris Dias
[01:07:48] falou um negócio
[01:07:49] tava falando lá sobre
[01:07:51] a gente tava falando
[01:07:51] sobre tecnologia também
[01:07:52] e daí ele falou
[01:07:54] do Steve Jobs
[01:07:55] na questão da Apple
[01:07:57] que quando ele fez
[01:07:58] o Steve Jobs
[01:07:58] dizia que quando ele fez
[01:07:59] o iPhone
[01:08:00] a galera
[01:08:02] muitos acionistas
[01:08:04] olharam
[01:08:04] pra ele e diziam assim
[01:08:04] não mas pera aí
[01:08:05] mas você tá fazendo
[01:08:05] um aparelho
[01:08:07] que pode matar
[01:08:07] o teu maior aparelho
[01:08:08] que é o iPod
[01:08:09] você tá fazendo
[01:08:10] o próprio iPod Killer
[01:08:12] ele falou
[01:08:12] não tudo bem
[01:08:13] mas pelo menos
[01:08:13] sou eu que tô fazendo
[01:08:14] o meu próprio
[01:08:15] sou eu que tô fazendo
[01:08:18] o iPod Killer
[01:08:19] então tipo
[01:08:19] não é uma empresa ali
[01:08:20] que vai me quebrar depois
[01:08:21] e o Nathan fala isso né
[01:08:24] eu tô com
[01:08:24] eu tô com a faca
[01:08:25] e o queijo na mão
[01:08:26] porque eu não vou cortar
[01:08:27] sabe
[01:08:27] eu tenho todas as informações
[01:08:29] necessárias
[01:08:30] pra produzir isso
[01:08:31] porque eu não vou fazer
[01:08:32] sabe
[01:08:32] exatamente
[01:08:33] fala aí
[01:08:35] não
[01:08:35] , o que eu ia dizer
[01:08:36] é que essa
[01:08:37] enfim
[01:08:38] super consciência
[01:08:40] do Nathan
[01:08:40] de falar assim
[01:08:41] ah
[01:08:41] é inevitável
[01:08:43] sabe
[01:08:43] uma hora ou outra
[01:08:43] alguém vai fazer
[01:08:44] e por aí vai
[01:08:45] é o que me faz
[01:08:47] relacionar ele
[01:08:48] ao último homem
[01:08:49] e no fim das contas
[01:08:50] esse filme
[01:08:51] ele me pareceu
[01:08:52] tipo um
[01:08:53] sei lá
[01:08:54] um retrato meio apocalíptico
[01:08:56] assim
[01:08:56] do último homem
[01:08:59] assim
[01:08:59] digamos
[01:09:00] o
[01:09:01] o Khaled ali
[01:09:02] é o romântico clássico
[01:09:04] o Nathan
[01:09:05] é o
[01:09:05] é o Nathan
[01:09:05] é o Nathan
[01:09:06] é o Nathan
[01:09:06] é o Nathan
[01:09:06] total
[01:09:07] já que ele sabe
[01:09:07] que enfim
[01:09:08] vai
[01:09:09] sabe
[01:09:10] é inevitável
[01:09:10] uma hora
[01:09:11] vai ter essa disputa
[01:09:12] entre
[01:09:12] e ele vive né
[01:09:14] tipo a vida
[01:09:15] exatamente
[01:09:16] é tipo assim
[01:09:17] é
[01:09:17] sabe
[01:09:18] isso que eu senti
[01:09:19] por mais que ele seja
[01:09:20] um cara gente boa
[01:09:21] que seja
[01:09:22] que seja festejo
[01:09:23] e tudo mais
[01:09:23] se você analisar
[01:09:25] parar pra pensar
[01:09:26] o modo de vida dele
[01:09:27] ele tem suas razões
[01:09:29] né
[01:09:29] pra isolar
[01:09:30] e
[01:09:31] evitar espionagem
[01:09:32] industrial
[01:09:33] e tudo mais
[01:09:33] mas
[01:09:34] é
[01:09:35] a questão de ser antissocial
[01:09:37] é tipo assim
[01:09:37] ah cara
[01:09:38] entendeu
[01:09:38] não vale mais a pena
[01:09:40] é e daí
[01:09:40] quando o Khaled
[01:09:41] vai começar a contar
[01:09:42] lá pra Ava
[01:09:43] tipo o que que ele
[01:09:45] sabe do Nathan né
[01:09:46] é engraçado
[01:09:47] ah o cara programou
[01:09:49] o código
[01:09:49] fonte da parada
[01:09:51] aos 13 anos
[01:09:52] sim
[01:09:53] dá a impressão
[01:09:53] ah ele tá muito acima
[01:09:54] da humanidade
[01:09:56] é
[01:09:56] isso que é
[01:09:58] a descrição do
[01:09:58] Nietzsche
[01:09:59] do último homem
[01:10:00] que equivale ao
[01:10:01] ninista né
[01:10:01] ninismo
[01:10:02] que é tipo assim
[01:10:03] o cara que já
[01:10:04] já superou
[01:10:05] e
[01:10:06] lembrando né
[01:10:07] o Nietzsche
[01:10:07] tava naquele contexto
[01:10:08] do século XIX
[01:10:09] que a ciência
[01:10:09] tava a todo vapor né
[01:10:11] bombando
[01:10:12] exato
[01:10:13] também
[01:10:13] não à toa
[01:10:14] ele escreve o Gaia
[01:10:15] a ciência
[01:10:15] como uma espécie
[01:10:16] de crítica
[01:10:17] a sapiência
[01:10:19] dos cientistas
[01:10:20] todos os primeiros
[01:10:21] livros dele
[01:10:21] são sobre isso
[01:10:22] também né
[01:10:23] o nascimento da tragédia
[01:10:24] é pra ele dizer
[01:10:25] olha aqui como a razão
[01:10:26] é uma merda
[01:10:27] como a razão
[01:10:28] não se sustenta sozinha
[01:10:29] só o lucro da razão
[01:10:30] então
[01:10:31] mas daí
[01:10:32] no Zaratustra né
[01:10:35] que ele vai falar
[01:10:35] do último homem
[01:10:36] ele descreve
[01:10:36] esses indivíduos
[01:10:39] que já estão
[01:10:39] extremamente
[01:10:40] sabe
[01:10:42] a espera do fim
[01:10:44] entende
[01:10:45] tipo
[01:10:46] por isso que são
[01:10:47] últimos homens né
[01:10:48] mas a questão
[01:10:50] é que
[01:10:52] enfim
[01:10:54] pra
[01:10:54] concluir meu raciocínio
[01:10:56] esse filme
[01:10:57] ele tem esse cara
[01:10:58] que representa isso
[01:10:59] e daí
[01:11:00] no fim das contas
[01:11:00] a metáfora
[01:11:01] que eu vejo
[01:11:02] é que tipo assim
[01:11:03] bom
[01:11:03] o
[01:11:04] o
[01:11:05] , a máquina venceu
[01:11:06] o, o próprio
[01:11:08] ser humano
[01:11:09] né
[01:11:09] o último homem
[01:11:10] é
[01:11:11] ele tava certo né
[01:11:12] ele tava
[01:11:13] ele teve razão
[01:11:14] porque ele construiu
[01:11:14] aquilo que vai
[01:11:15] enfim dominar ele
[01:11:16] por mais que seja uma
[01:11:17] só uma cena lá
[01:11:18] que a mulher mata
[01:11:19] e vai pro mundo
[01:11:20] em sociedade
[01:11:21] assim
[01:11:22] é
[01:11:23] e daí ou seja
[01:11:24] é o apocalipse assim
[01:11:25] é
[01:11:26] essa mensagem
[01:11:26] que eu vi no fim
[01:11:27] no fim das contas
[01:11:29] assim
[01:11:29] e
[01:11:30] o
[01:11:30] essa questão do último homem
[01:11:32] é uma dos pontos
[01:11:33] que ultimamente
[01:11:34] eu tenho
[01:11:34] assim
[01:11:35] sei lá
[01:11:36] ponderado sobre
[01:11:37] sabe
[01:11:38] tipo no sentido de
[01:11:39] essa questão do niilismo
[01:11:40] que eu acho que
[01:11:41] é mais interessante
[01:11:43] e tem mais a ver
[01:11:44] com esse filme
[01:11:45] do que a própria questão
[01:11:46] da tecnologia
[01:11:47] entende que
[01:11:48] por exemplo
[01:11:49] quando eu tava falando
[01:11:50] do Sloterdick
[01:11:50] ele também vai
[01:11:52] vai por esse lado
[01:11:53] né
[01:11:53] bom
[01:11:53] já que tudo é falso
[01:11:54] tudo é artifício
[01:11:55] então
[01:11:56] né
[01:11:56] tipo
[01:11:57] sejamos felizes
[01:11:59] assim
[01:11:59] tipo
[01:11:59] foda-se assim
[01:12:00] né
[01:12:01] a vida não vale a pena
[01:12:03] e
[01:12:04] isso é uma leitura
[01:12:05] de Nietzsche
[01:12:05] que me parece
[01:12:06] extremamente
[01:12:07] bizarra
[01:12:08] assim
[01:12:08] tipo
[01:12:09] porque tem uma sutil
[01:12:10] diferença né
[01:12:11] tudo é artifício
[01:12:12] então tudo é falso
[01:12:14] então não vale a pena
[01:12:15] viver a vida
[01:12:16] ou
[01:12:16] tudo é artifício
[01:12:17] então tudo é verdadeiro
[01:12:19] entendeu
[01:12:21] por isso a vida
[01:12:22] vale a pena
[01:12:23] é uma questão
[01:12:26] assim tipo
[01:12:26] ir pro niilismo
[01:12:27] ou não
[01:12:28] mas
[01:12:28] é uma questão
[01:12:30] assim de você ver
[01:12:31] como assim
[01:12:32] a
[01:12:32] o que o Nietzsche
[01:12:34] no fim das contas
[01:12:34] sempre alerta
[01:12:35] e essa é a grande questão
[01:12:37] é o receio do homem
[01:12:38] com relação a diferença
[01:12:39] aquilo que o Nietzsche
[01:12:42] defendia como uma cultura ideal
[01:12:43] no sentido bem utópico mesmo
[01:12:46] é aquela cultura
[01:12:46] em que as diferenças
[01:12:48] existam
[01:12:49] e obviamente
[01:12:50] essa cultura
[01:12:51] jamais vai existir
[01:12:52] embora ele
[01:12:55] pregasse por isso
[01:12:56] e no caso assim
[01:12:58] se a gente pensar
[01:12:59] no
[01:13:00] no humanóide lá
[01:13:02] enfim
[01:13:03] no robô
[01:13:03] no
[01:13:04] no
[01:13:05] , é, no android
[01:13:06] como algo que é diferente
[01:13:08] e portanto nos ameaça
[01:13:09] então
[01:13:11] sabe
[01:13:12] a gente mantém o mesmo
[01:13:13] questão
[01:13:14] que o Nietzsche
[01:13:17] criticava né
[01:13:18] essa
[01:13:18] esse medo
[01:13:20] esse ressentimento
[01:13:21] em relação àquele
[01:13:22] que é diferente
[01:13:23] então o android
[01:13:24] pra mim
[01:13:25] aparece muito mais
[01:13:26] como aquilo que é diferente
[01:13:27] desconhecido
[01:13:28] e portanto
[01:13:29] que nos ameaça
[01:13:30] é inimigo
[01:13:31] imediatamente
[01:13:32] do que
[01:13:33] entendeu
[01:13:34] tipo
[01:13:34] ah se
[01:13:35] eu acho que
[01:13:36] esse é o pano de fundo
[01:13:37] da discussão tecnológica
[01:13:38] sabe tipo
[01:13:39] eu não sei
[01:13:40] é uma leitura
[01:13:41] muito enviesada
[01:13:42] da minha parte
[01:13:43] mas
[01:13:43] sabe
[01:13:44] eu vejo é dessa forma
[01:13:46] assim
[01:13:46] é mas você
[01:13:48] por exemplo
[01:13:49] seria a favor
[01:13:50] de que desenvolvam
[01:13:51] tecnologia
[01:13:52] que aconteça
[01:13:53] o que acontece
[01:13:53] no filme
[01:13:54] ou você
[01:13:55] qual que é a sua posição
[01:13:58] sobre isso
[01:13:58] afinal de contas
[01:13:59] sem dúvida
[01:13:59] seria a favor
[01:14:00] até porque
[01:14:00] se é o caso
[01:14:02] da gente tomar oposição
[01:14:03] quer dizer que existe
[01:14:04] a possibilidade
[01:14:05] e se existe
[01:14:06] a possibilidade
[01:14:07] daí o meu argumento
[01:14:08] é pragmático
[01:14:10] como o do Sloterdijk
[01:14:11] né
[01:14:11] não adianta
[01:14:13] você tomar posição
[01:14:15] ou não
[01:14:15] você pode proibir
[01:14:16] mas vai acontecer
[01:14:18] é se existe
[01:14:19] a possibilidade
[01:14:20] entendeu
[01:14:20] quer dizer
[01:14:20] desde
[01:14:22] enfim
[01:14:23] desde o momento
[01:14:23] que alguém pensou
[01:14:25] inteligência artificial
[01:14:27] de repente
[01:14:28] isso está
[01:14:28] desde a Grécia
[01:14:30] assim
[01:14:30] é óbvio
[01:14:31] que vai acontecer
[01:14:32] entende
[01:14:33] e a
[01:14:34] a raça humana
[01:14:34] vai ser extinta
[01:14:35] bom
[01:14:36] sabe
[01:14:39] uma hora ou outra
[01:14:40] vai né
[01:14:41] e se for
[01:14:44] que seja
[01:14:44] pelas nossas mãos né
[01:14:45] que nem
[01:14:47] o Steve Jobs
[01:14:49] falando
[01:14:49] que a gente
[01:14:51] cria os próprios
[01:14:51] meios
[01:14:52] para se destruir
[01:14:52] tá certo
[01:14:53] eu tenho
[01:14:55] sobre isso
[01:14:56] eu gostaria
[01:14:59] de fazer
[01:14:59] um último comentário
[01:15:00] sobre
[01:15:01] o filme em geral
[01:15:02] em comparação
[01:15:02] com Black Mirror
[01:15:03] que eu acho
[01:15:04] que uma coisa
[01:15:04] que me faz dizer
[01:15:05] que eu acho
[01:15:06] que o Black Mirror
[01:15:07] é muito mais interessante
[01:15:08] é porque o Black Mirror
[01:15:10] sempre coloca a gente
[01:15:12] no meio
[01:15:12] que as tecnologias
[01:15:13] já estão muito avançadas
[01:15:14] já estão muito
[01:15:15] distribuídas
[01:15:17] então
[01:15:17] elas já estão em uso
[01:15:19] e já estão sendo discutidas
[01:15:21] então nós vemos
[01:15:21] relações humanas
[01:15:22] e conflitos humanos
[01:15:23] dentro de um
[01:15:26] cenário tecnológico
[01:15:27] estranho
[01:15:28] para a gente
[01:15:28] e isso nos fascina
[01:15:29] para dizer
[01:15:30] que olha só
[01:15:31] a gente é sempre
[01:15:32] a mesma merda mesmo
[01:15:33] então
[01:15:33] é cyberpunk
[01:15:35] e daí
[01:15:36] enquanto que já
[01:15:37] no X-Machina
[01:15:38] ele já tem esse ar
[01:15:39] de
[01:15:40] olha só
[01:15:41] as coisas
[01:15:42] a novidade
[01:15:42] isso
[01:15:43] coisa nova
[01:15:44] as coisas vão mudar
[01:15:44] agora
[01:15:45] sabe
[01:15:45] então isso que eu gosto
[01:15:47] nesse sentido
[01:15:48] eu acabo sendo um conservador
[01:15:49] de dizer
[01:15:50] que essa natureza humana
[01:15:52] é foda mesmo
[01:15:53] sabe
[01:15:55] que
[01:15:55] não importa
[01:15:56] o nível tecnológico
[01:15:57] a gente vai estar
[01:15:58] sempre lidando
[01:15:58] com os mesmos problemas
[01:16:00] sabe
[01:16:00] e me incomodou
[01:16:02] um pouco
[01:16:02] no filme
[01:16:03] essa questão
[01:16:03] desse sentido de novidade
[01:16:06] que o filme coloca
[01:16:07] sabe
[01:16:08] eu não sei se
[01:16:08] eu fui o único
[01:16:09] que pensou dessa maneira
[01:16:10] de tentar
[01:16:11] ele parece que ele tenta
[01:16:12] explicar muitas coisas
[01:16:14] né
[01:16:14] que o Black Mirror
[01:16:15] justamente ele te joga
[01:16:17] e ele te apresenta
[01:16:19] as tecnologias
[01:16:19] mais ou menos
[01:16:20] como elas funcionam
[01:16:21] no decorrer
[01:16:22] de uma maneira
[01:16:23] naturalizada
[01:16:24] totalmente
[01:16:24] bem natural assim
[01:16:26] aquela do grão mesmo
[01:16:27] a gente vê
[01:16:28] a gente vai
[01:16:30] desvendando ela
[01:16:32] no decorrer do episódio
[01:16:33] o tema do episódio
[01:16:34] sobre o grão
[01:16:34] é ciúmes
[01:16:36] é
[01:16:36] sabe
[01:16:37] é desconfiança
[01:16:38] é atos de loucura
[01:16:40] coisas que
[01:16:41] nós nos relacionamos
[01:16:42] né
[01:16:42] é isso pra
[01:16:43] é o que me parece
[01:16:44] caracterizar o cyberpunk
[01:16:46] assim
[01:16:46] pelo menos né
[01:16:47] na linha do
[01:16:48] do
[01:16:48] lá do
[01:16:49] Felipe K. Dick
[01:16:50] enquanto esse filme
[01:16:52] parece
[01:16:53] quase que retornar
[01:16:54] um Asimov
[01:16:55] né
[01:16:55] uma coisa assim
[01:16:56] de repente não tão complexa
[01:16:58] quanto o Asimov
[01:16:59] mas enfim
[01:16:59] ou seja
[01:16:59] essa
[01:17:00] uma tecnologia
[01:17:02] que
[01:17:03] nova
[01:17:04] uma semente
[01:17:05] do mal
[01:17:06] assim sabe
[01:17:07] sim
[01:17:08] sim
[01:17:08] que daí a continuação
[01:17:09] é o Blade Runner
[01:17:10] é
[01:17:11] ou seja
[01:17:11] o mal mesmo
[01:17:12] é a tecnologia
[01:17:13] né
[01:17:14] tipo
[01:17:14] na forma como ela é apresentada
[01:17:16] e não o ser humano
[01:17:16] então eu concordo
[01:17:18] tipo
[01:17:18] parece ser um filme
[01:17:19] assim bem
[01:17:20] anacrônico
[01:17:21] agora
[01:17:21] já que a gente concorda
[01:17:23] com isso
[01:17:23] a questão
[01:17:25] a se levantar
[01:17:26] é por que
[01:17:26] que tanta gente gostou
[01:17:28] ou seja
[01:17:29] não mas
[01:17:31] eu gostei do filme
[01:17:33] eu achei o filme
[01:17:33] legal
[01:17:34] divertido
[01:17:34] não acho que é o melhor filme
[01:17:36] que já lidou
[01:17:36] com esse assunto
[01:17:38] eu acho que
[01:17:39] a série também
[01:17:40] Black Mirror
[01:17:41] é muito melhor
[01:17:42] para lidar
[01:17:43] mas é um filme divertido
[01:17:44] eu acho que ele foi sutil
[01:17:46] nessa questão
[01:17:47] de trazer
[01:17:47] a semente do mal
[01:17:49] na tecnologia
[01:17:50] porque
[01:17:51] enfim
[01:17:51] é uma coisa
[01:17:52] é uma história muito isolada
[01:17:54] tipo um conto
[01:17:55] né cara
[01:17:56] tipo assim
[01:17:56] uma coisa assim
[01:17:58] sabe
[01:17:58] não é uma história longa
[01:18:00] é um thriller
[01:18:01] enfim
[01:18:01] o que é engraçado né
[01:18:03] que é um filme de quase duas horas
[01:18:04] em que a profundidade dele
[01:18:06] não é tanto
[01:18:07] quanto no Black Mirror
[01:18:08] por exemplo
[01:18:08] Black Mirror
[01:18:09] que tem um episódio
[01:18:09] de cinquenta minutos
[01:18:11] assim
[01:18:11] você vê e
[01:18:12] porra
[01:18:13] tanta coisa
[01:18:13] exagera
[01:18:14] exagera no suspense né
[01:18:16] agora
[01:18:16] é acaba sendo um filme
[01:18:17] mais suspense
[01:18:18] do que de debate tecnológico
[01:18:20] pelo menos
[01:18:21] no suspense
[01:18:21] me tirou do filme
[01:18:22] várias vezes
[01:18:23] porque aquela hora
[01:18:24] que dava aquele vermelhão lá
[01:18:26] tá acabando a luz
[01:18:27] eu
[01:18:28] ah porra
[01:18:28] de novo
[01:18:29] essa merda
[01:18:30] mas é assim
[01:18:32] mas é um filme
[01:18:32] redondinho
[01:18:33] assim
[01:18:33] eu não tenho
[01:18:34] sem dúvida
[01:18:34] é redondinho
[01:18:35] ele apresenta
[01:18:37] a tecnologia
[01:18:39] de uma maneira assim
[01:18:41] bem sutil
[01:18:42] mas ainda assim
[01:18:42] como inimiga
[01:18:43] né
[01:18:44] agora
[01:18:45] realmente eu fiquei
[01:18:46] me perguntando assim
[01:18:47] bom
[01:18:47] porque eu vi também
[01:18:48] muita gente falando
[01:18:49] cara
[01:18:49] vocês tem que assistir
[01:18:50] o X-Machina
[01:18:52] e tal
[01:18:53] é do caralho
[01:18:54] puta que pariu
[01:18:56] vocês vão
[01:18:56] ficar louco
[01:18:58] vão gozar
[01:18:58] no teclado
[01:18:59] do cinema
[01:19:01] do cinema
[01:19:01] no cinema
[01:19:02] eu não sei
[01:19:03] o cinema
[01:19:03] tá certo
[01:19:04] que tá nos melhores
[01:19:05] salas de cinema do Brasil
[01:19:06] que nem o Mr. Nobody
[01:19:09] no cinema até hoje
[01:19:11] aí
[01:19:11] daí eu fiquei pensando
[01:19:15] cara
[01:19:15] enfim
[01:19:15] eu especulei assim
[01:19:17] veio uma hipótese
[01:19:18] cara
[01:19:18] quem gostou desse filme mesmo
[01:19:20] e daí eu tô
[01:19:20] jogando uma hipótese
[01:19:21] totalmente
[01:19:22] refutável
[01:19:23] assim
[01:19:24] é a galera
[01:19:25] que pira em programação
[01:19:26] cara
[01:19:26] olha que pau no cu
[01:19:29] eu acho que ele deve
[01:19:31] fazer várias homenagens
[01:19:32] aquela galera que pira em programação
[01:19:32] eu acho que ele deve fazer várias homenagens
[01:19:32] aquela galera lá
[01:19:33] tipo o John McCarthy
[01:19:34] esse pessoal
[01:19:35] mas é porque tem um lance de programação
[01:19:37] que é curioso
[01:19:38] que em momento algum
[01:19:39] do filme
[01:19:40] é discutido
[01:19:41] sequer a possibilidade
[01:19:42] das leis de Zimove
[01:19:43] por exemplo
[01:19:44] as leis da robótica
[01:19:45] e daí
[01:19:46] a gente pode jogar
[01:19:47] pra uma vida real
[01:19:48] assim mesmo
[01:19:49] imaginar se a gente
[01:19:50] chega a um nível
[01:19:51] de inteligência artificial
[01:19:52] desse nível
[01:19:54] se as leis da robótica
[01:19:55] seriam aplicadas
[01:19:56] ou não
[01:19:57] porque
[01:19:57] eu consigo
[01:19:58] vislumbrar perfeitamente
[01:20:00] assim tipo
[01:20:01] duas empresas
[01:20:02] disputando
[01:20:02] nisso
[01:20:03] uma de repente
[01:20:04] vai inovar
[01:20:05] tirando as leis da robótica
[01:20:06] sabe
[01:20:06] e outra
[01:20:08] a inteligência
[01:20:08] a inteligência artificial
[01:20:10] quem
[01:20:11] ela vai se tirar
[01:20:12] isso daí
[01:20:13] a primeira coisa dela
[01:20:15] enquanto consciência
[01:20:16] se atingir a singularidade
[01:20:17] por que eu tenho
[01:20:18] essas caralho
[01:20:19] de lei
[01:20:20] que me impede
[01:20:21] de fazer o que eu quero
[01:20:22] sim
[01:20:23] agora
[01:20:24] de fato
[01:20:24] assim
[01:20:25] sei lá
[01:20:26] por exemplo
[01:20:27] lá no
[01:20:28] entre os alunos
[01:20:30] de gráfico
[01:20:32] indo lá
[01:20:32] sei lá
[01:20:34] para a pós-graduação
[01:20:35] eu vejo sim
[01:20:35] um debate
[01:20:36] sabe esse debate
[01:20:37] que o pessoal gosta de fazer
[01:20:38] mas ninguém se arrisca
[01:20:39] a pesquisar a respeito
[01:20:40] porque é muita viagem
[01:20:41] e tal
[01:20:41] que é
[01:20:42] quando o pessoal
[01:20:43] pesquisa
[01:20:44] user experience
[01:20:45] ou
[01:20:46] enfim
[01:20:47] o design voltado
[01:20:48] para o usuário
[01:20:49] eles pensam
[01:20:51] eles adoram
[01:20:52] falar sobre
[01:20:53] testes de tuning
[01:20:53] por exemplo
[01:20:54] é claro que
[01:20:55] enfim
[01:20:56] isso está bem longe
[01:20:58] do trabalho
[01:20:59] do user experience
[01:21:00] não estou fazendo
[01:21:00] essa inferência
[01:21:01] né
[01:21:02] enfim
[01:21:03] o user experience
[01:21:04] é extremamente pragmático
[01:21:06] né
[01:21:06] para resolver
[01:21:07] enfim
[01:21:08] trazer soluções pontuais
[01:21:10] é para ver
[01:21:10] se o cara está conseguindo
[01:21:11] apertar ok
[01:21:12] na
[01:21:12] submit to your form
[01:21:14] isso
[01:21:15] mas aí
[01:21:15] está comprando mais
[01:21:16] justamente pelo user experience
[01:21:18] lidar com essa questão
[01:21:19] da previsibilidade
[01:21:20] das ações
[01:21:21] e das decisões humanas
[01:21:22] que o teste de tuning
[01:21:24] torna-se
[01:21:25] me parece
[01:21:26] né
[01:21:26] interessante
[01:21:27] para
[01:21:28] esse pessoal
[01:21:29] sim
[01:21:30] já que
[01:21:31] enfim
[01:21:32] é
[01:21:32] o teste de tuning
[01:21:33] é um teste de previsibilidade
[01:21:34] né
[01:21:34] de você prever
[01:21:35] que as respostas
[01:21:37] ou pelo menos
[01:21:38] enfim
[01:21:38] categorizá-las
[01:21:39] e a partir disso
[01:21:41] tomar um
[01:21:42] um veredito
[01:21:43] é não
[01:21:43] e do ponto de vista
[01:21:44] bem pragmático mesmo
[01:21:45] a interface
[01:21:47] quanto mais
[01:21:48] amigável
[01:21:49] ela for
[01:21:49] nesse sentido aí
[01:21:51] é
[01:21:51] faz bem ponto
[01:21:52] com esse teste de tuning
[01:21:53] melhor vai ser né
[01:21:55] exatamente
[01:21:55] tipo eu não senti
[01:21:56] a estranheza
[01:21:57] do formulário
[01:21:58] sabe
[01:21:58] então
[01:21:59] me dê respostas
[01:22:01] amigáveis
[01:22:01] é
[01:22:01] o que
[01:22:02] que menos
[01:22:02] estranho seria
[01:22:03] do que
[01:22:04] uma mulher
[01:22:05] falando com você
[01:22:06] né
[01:22:06] falando sua língua
[01:22:08] com eloquência
[01:22:09] pelo celular né
[01:22:10] é
[01:22:11] tipo
[01:22:11] não mas
[01:22:12] que é
[01:22:13] android né
[01:22:14] ela
[01:22:15] ali é a interface
[01:22:17] perfeita em questão
[01:22:18] de user experience
[01:22:19] e é bizarro né
[01:22:20] porque
[01:22:20] tipo
[01:22:21] como que você projetou ela
[01:22:22] você não olhou
[01:22:23] o meu histórico
[01:22:24] de pesquisa de pornografia
[01:22:26] né
[01:22:26] é muito
[01:22:28] eu digo isso
[01:22:30] porque
[01:22:30] tem muito
[01:22:31] muita gente que vem
[01:22:32] procurar lá
[01:22:32] por causa da filosofia
[01:22:33] do design
[01:22:34] que
[01:22:35] enfim
[01:22:35] falando
[01:22:36] eu pesquiso pra caramba
[01:22:38] user experience
[01:22:38] eu queria
[01:22:39] filosofar sobre
[01:22:40] essa possibilidade
[01:22:41] essas questões
[01:22:42] da inteligência artificial
[01:22:43] e uma série de
[01:22:44] enfim
[01:22:45] de
[01:22:45] de propostas
[01:22:48] que vão nesse sentido
[01:22:49] e que
[01:22:50] cara
[01:22:50] eu não entendo
[01:22:51] direito sabe
[01:22:52] tipo
[01:22:52] qual que é a relevância
[01:22:55] porque pra mim
[01:22:56] isso realmente
[01:22:57] é tipo
[01:22:57] ficção científica
[01:22:58] no sentido mais
[01:22:59] espuro possível
[01:23:00] sabe
[01:23:01] tipo
[01:23:01] no sentido mais
[01:23:02] metafísico mesmo
[01:23:04] assim
[01:23:05] cara
[01:23:08] esse filme até é interessante
[01:23:10] nesse sentido
[01:23:11] porque ele lida
[01:23:12] com a incognizabilidade
[01:23:16] incognizabilidade
[01:23:16] algo incognicível
[01:23:18] incognicível
[01:23:19] é
[01:23:19] mas daí
[01:23:20] eu digo em relação
[01:23:21] aos afetos
[01:23:21] por exemplo
[01:23:22] tipo
[01:23:22] quando o cara
[01:23:23] o Nathan fala
[01:23:24] bom
[01:23:24] a Ava lá
[01:23:27] ela sente
[01:23:28] ela tem sentimentos
[01:23:29] daí o cara pergunta
[01:23:30] mas você sabe
[01:23:31] aí o Nathan responde
[01:23:32] bom
[01:23:32] como você sabe
[01:23:33] que eu tenho
[01:23:34] né
[01:23:34] ou enfim
[01:23:35] como você sabe
[01:23:36] que eu tô sentindo
[01:23:36] aquilo que você acha
[01:23:37] que eu tô sentindo
[01:23:38] então
[01:23:39] é tudo incognoscível
[01:23:40] né
[01:23:41] isso
[01:23:41] enfim
[01:23:42] o Wittgenstein
[01:23:43] é
[01:23:44] daí você pode entrar
[01:23:45] numa discussão de hardware
[01:23:46] né
[01:23:47] eu sei que você sente
[01:23:47] porque você tem o mesmo hardware
[01:23:48] que eu
[01:23:49] eu não sei o hardware dela
[01:23:50] então
[01:23:51] mas teoricamente
[01:23:52] a gente
[01:23:53] nós partilhamos
[01:23:54] o mesmo hardware né
[01:23:55] é então
[01:23:56] daí
[01:23:56] daí ele conseguiria afirmar
[01:23:58] isso
[01:23:59] sei lá
[01:24:00] falar pro Nathan
[01:24:01] no fim das contas
[01:24:03] né
[01:24:03] o Beccari
[01:24:04] fechou bem
[01:24:05] dizendo que
[01:24:06] é um problema
[01:24:06] da ficção científica
[01:24:07] velho já
[01:24:08] e que
[01:24:08] só pra ficar
[01:24:10] tipo
[01:24:11] na idade moderna
[01:24:12] aqui né
[01:24:12] era moderna
[01:24:13] e contemporânea
[01:24:14] Mary Shelley
[01:24:15] com o Frankenstein
[01:24:16] já falava
[01:24:17] um pouco disso
[01:24:18] do perigo
[01:24:19] da criatura
[01:24:20] o E.T.A. Hoffman
[01:24:22] que é um grande escritor
[01:24:23] um contista
[01:24:25] fantástico
[01:24:26] do século
[01:24:27] 19 e 20
[01:24:28] acho que é só
[01:24:28] século 19
[01:24:29] se não me engano
[01:24:30] mas enfim
[01:24:30] é um escritor
[01:24:31] muito legal
[01:24:31] que foi pouco traduzido
[01:24:32] no Brasil
[01:24:33] mas ele tem
[01:24:33] livros muito legais
[01:24:34] ele tem um conto
[01:24:35] chamado
[01:24:35] O Autômato
[01:24:36] justamente que fala
[01:24:38] cara é quase a mesma história
[01:24:39] assim é um cara
[01:24:39] que se apaixona
[01:24:40] por uma mulher
[01:24:41] que não sabe dizer
[01:24:42] se é um robô
[01:24:43] ou uma pessoa
[01:24:43] tipo século 19
[01:24:45] sabe
[01:24:45] então
[01:24:46] e sem contar
[01:24:48] tantas outras histórias
[01:24:49] que tem nesse sentido
[01:24:50] eu acho que
[01:24:51] só que realmente
[01:24:52] o filme
[01:24:53] eu acho que ele
[01:24:53] é legal
[01:24:54] nesse sentido
[01:24:55] de que ele
[01:24:55] retoma esse
[01:24:57] o tema
[01:24:58] falando como peça
[01:24:59] cinematográfica
[01:25:00] né
[01:25:00] narrativa
[01:25:01] retoma um tema
[01:25:02] que já estava
[01:25:02] meio caído
[01:25:03] que era o lance
[01:25:04] do
[01:25:04] as máquinas
[01:25:06] são um problema
[01:25:07] né
[01:25:07] que esse tema
[01:25:08] ficou tão batido
[01:25:08] já do tipo
[01:25:09] que pararam
[01:25:10] de fazer filme
[01:25:11] assim
[01:25:11] a ponto de que
[01:25:12] teve que se reinventar
[01:25:13] a proposta
[01:25:14] como num Black Mirror
[01:25:15] ou num Her
[01:25:16] mas eu acho bacana
[01:25:17] também
[01:25:18] de ser uma história
[01:25:18] nova né
[01:25:19] cara
[01:25:19] sim sim
[01:25:21] é uma história nova
[01:25:22] sem dúvida
[01:25:23] totalmente válida
[01:25:24] ela deve a várias
[01:25:25] várias fontes do passado
[01:25:26] mas é bacana
[01:25:28] então
[01:25:28] e de fato
[01:25:29] se ela
[01:25:29] se o pessoal tem
[01:25:30] assistido e gostado
[01:25:32] e dado nota boa
[01:25:33] pra esse filme
[01:25:34] é um indicativo
[01:25:35] de que
[01:25:36] é um problema
[01:25:38] ainda presente
[01:25:39] sim
[01:25:40] na vida das pessoas
[01:25:41] que pra mim
[01:25:41] é um indicativo
[01:25:42] que as pessoas
[01:25:42] são mais românticas
[01:25:43] do que nunca
[01:25:44] provoca uma promoção
[01:25:45] é mas assim
[01:25:47] pra não ficar
[01:25:47] porque daí
[01:25:48] vai ficar aquela
[01:25:48] aquela impressão
[01:25:50] né
[01:25:50] porra
[01:25:51] antes que essa
[01:25:52] né
[01:25:52] tipo os caras
[01:25:53] tão velhos
[01:25:54] assim
[01:25:54] sabe
[01:25:58] os caras
[01:25:58] não tem mais paciência
[01:26:00] sabe
[01:26:00] o cara nem sabe
[01:26:02] os novos pokémons
[01:26:03] exatamente
[01:26:04] e de repente
[01:26:09] é verdade
[01:26:09] mas
[01:26:10] é
[01:26:11] é provável
[01:26:11] mas
[01:26:12] mas a
[01:26:13] a
[01:26:14] por outro lado
[01:26:15] eu acho
[01:26:16] interessante
[01:26:17] como
[01:26:17] é
[01:26:19] apesar de tudo
[01:26:20] é
[01:26:21] esse filme
[01:26:22] esse filme
[01:26:23] e outros filmes
[01:26:24] ainda
[01:26:24] virão assim
[01:26:25] e vão
[01:26:26] enfim
[01:26:26] as pessoas vão
[01:26:28] se deslumbrar
[01:26:29] com isso
[01:26:29] só que eu acho
[01:26:30] que assim
[01:26:31] sabe
[01:26:31] daqui a 50 anos
[01:26:32] se eu fosse apostar
[01:26:33] esse é um filme
[01:26:34] é um filme
[01:26:35] que seria facilmente
[01:26:36] esquecido
[01:26:36] pode ser
[01:26:38] ou vai ser lembrado
[01:26:39] que nem um
[01:26:40] Frankenstein
[01:26:41] assim tipo
[01:26:42] uma boa ficção
[01:26:43] de manhã
[01:26:45] a hora que eu tava
[01:26:46] comentando com o Beccari
[01:26:47] a gente até
[01:26:48] chegou
[01:26:48] por exemplo
[01:26:49] o Vingador do Futuro
[01:26:50] lá do Schwarzenegger
[01:26:51] teria umas questões
[01:26:52] mais interessantes
[01:26:53] nesse sentido
[01:26:54] é
[01:26:55] eu acho que
[01:26:56] permanece muito
[01:26:57] mais atual
[01:26:58] tem um filme
[01:26:59] que a gente comentou
[01:27:00] lá em off
[01:27:00] que é o tal
[01:27:01] do Chappie
[01:27:02] ah o Chappie
[01:27:03] é que a discussão
[01:27:05] é
[01:27:06] tipo social
[01:27:07] realmente
[01:27:08] é da tecnologia
[01:27:09] eu acho interessante
[01:27:10] porque os robôs
[01:27:11] eles são utilizados
[01:27:12] apenas como policiais
[01:27:14] né
[01:27:14] então chegou
[01:27:15] num nível assim
[01:27:16] essa história né
[01:27:17] é mas assim
[01:27:18] pelas notas
[01:27:19] que estão saindo
[01:27:20] o Chappie
[01:27:21] foi muito menos
[01:27:22] bem recebido
[01:27:23] do que o
[01:27:24] do que o X-Max
[01:27:25] mas é que eu acho
[01:27:25] que o Chappie
[01:27:26] sofre do cobran
[01:27:27] eu não vi o Chappie
[01:27:28] ainda então
[01:27:29] acho que ele sofre
[01:27:29] do problema
[01:27:30] do Distrito 9
[01:27:31] assim
[01:27:31] que o Neil Blomkamp
[01:27:34] fez um filme
[01:27:34] fodasse todo mundo
[01:27:35] que é um novo filme
[01:27:36] daquele né
[01:27:37] exato
[01:27:37] é meio difícil
[01:27:38] é que nem o outro filme
[01:27:39] que ele fez lá
[01:27:40] qual que é o filme
[01:27:42] que ele fez depois
[01:27:43] o Elysium
[01:27:44] ah o Elysium
[01:27:45] eu achei o filme legal
[01:27:46] assim só que todo mundo
[01:27:46] queria o Distrito 9
[01:27:47] sabe então
[01:27:48] se bem que parece
[01:27:49] que até ele também
[01:27:50] disse que não gosta
[01:27:50] do Elysium
[01:27:51] mas eu gostei
[01:27:52] mas é o mesmo diretor
[01:27:53] do Chappie
[01:27:53] mesmo diretor
[01:27:54] Distrito 9
[01:27:55] Elysium e Chappie
[01:27:57] é o mesmo
[01:27:57] eu gosto
[01:27:58] dos filmes dele
[01:27:59] eu gosto também
[01:28:01] não sei porque o pessoal
[01:28:02] é que gente
[01:28:03] a gente já teve
[01:28:04] uma lição bem grande
[01:28:05] no mundo do cinema
[01:28:06] chamada
[01:28:06] A M Night Shyamalan
[01:28:09] sabe
[01:28:09] parem de esperar
[01:28:10] do cara
[01:28:12] é uma coisa melhor
[01:28:13] sabe
[01:28:13] do que ele fez
[01:28:14] sabe
[01:28:15] é uma maldição isso
[01:28:16] deixa o cara fazer
[01:28:17] um filme bacana
[01:28:18] porra não me foda
[01:28:19] e assim
[01:28:19] mesmo o Distrito 9
[01:28:20] não me foda
[01:28:21] olha só
[01:28:21] mesmo o Distrito 9
[01:28:23] acho que ele não teve
[01:28:24] tanta boa repercussão
[01:28:26] quanto
[01:28:26] esse Ex Machina
[01:28:28] aparentemente
[01:28:29] não
[01:28:29] Distrito 9 foi muito bem recebido, cara.
[01:28:32] Muito bem recebido, é.
[01:28:33] É, assim, eu tô vendo que pelas notas, assim,
[01:28:35] ele tá, até que não tá tão
[01:28:37] maior a nota, assim, tipo,
[01:28:39] o Ex-Máquina no IMDB tá com
[01:28:41] 7.8, o Distrito 9 tá com 8,
[01:28:44] sabe? Então, tipo, pouca diferença.
[01:28:46] A mesma nota do Her, por exemplo.
[01:28:47] Mas, assim, tipo, o buzz que
[01:28:49] Distrito 9 fez na época, é que
[01:28:51] Distrito 9 é um filme do caralho, assim, tipo,
[01:28:53] é um filme muito legal. É, e ele surgiu, a discussão
[01:28:55] que ele propôs, assim, tipo,
[01:28:57] foi meio que revelação, sabe?
[01:28:59] É, porque no cinema,
[01:29:02] essa discussão de
[01:29:03] fazer ficção científica
[01:29:04] social,
[01:29:06] entra muito pouco, né?
[01:29:09] E daí,
[01:29:11] na literatura já é muito comum
[01:29:13] isso. Só que daí, quando fazem um filme legal
[01:29:15] desse, assim, pô, você pode ser na África
[01:29:17] do Sul, tá? Então tem toda aquela questão
[01:29:19] de estranhamento também. Então isso
[01:29:21] ajudou muito. E o Chap,
[01:29:23] eu tô bem afim de ver, cara.
[01:29:25] Agora, esse lance de robô que só faz não sei o que,
[01:29:27] cara, a gente já tem o Wall-E, que é um filme
[01:29:29] muito legal, né?
[01:29:31] Mas o Wall-E é muito mais futurista
[01:29:33] que o Chap, né? Mas é muito
[01:29:35] bacana, cara. O Wall-E é… É, futurista no sentido
[01:29:37] que vai mais, né,
[01:29:38] um futuro distante,
[01:29:41] assim, um pós-humano.
[01:29:43] Mas, ou seja, esse
[01:29:45] filme, voltando no
[01:29:47] X-Machina,
[01:29:49] é um filme que é pra ser psicológico,
[01:29:51] né?
[01:29:52] E, cara, eu acho muito fraco, porque tem filmes
[01:29:55] psicológicos excelentes,
[01:29:57] como aquele Moon,
[01:29:59] sabe?
[01:30:00] Porra, ou seja, porque
[01:30:02] às vezes alguém vai falar, ah, você não gostou…
[01:30:05] Eu acho que a minha namorada
[01:30:07] falou isso pra mim quando a gente assistiu.
[01:30:09] Você não gostou porque, sabe,
[01:30:11] é pouco personagem,
[01:30:13] filme, enfim, tipo, sabe,
[01:30:15] psicológico. Eu falei, não, eu gosto…
[01:30:17] Assim, tem…
[01:30:18] Eu acho difícil fazer um bom filme
[01:30:21] psicológico, entendeu?
[01:30:23] Que envolva tanto, assim.
[01:30:25] Esse filme não me envolveu tanto.
[01:30:27] Sim, sim. O Moon é um…
[01:30:29] É um filme que só tem um personagem
[01:30:30] e uma máquina que, caralho,
[01:30:33] aquilo lá foi foda.
[01:30:35] Tem um outro filme que eu tô tentando lembrar que é meio na pegada
[01:30:37] do Moon também, só que daí
[01:30:39] não é ficção científica. É tipo um cara
[01:30:41] que ele tá com os amigos, ele tá se
[01:30:43] despedindo, tá dizendo,
[01:30:45] ó, ele é um professor universitário, um negócio assim.
[01:30:47] Eu tenho que ir embora, pra…
[01:30:49] E daí, à medida que ele vai conversando
[01:30:51] dos motivos que ele vai, ele começa a revelar que
[01:30:53] ele é imortal. Não sei se vocês já viram esse…
[01:30:55] Não? É, cara, eu tô tentando lembrar o nome
[01:30:57] dele agora.
[01:30:59] Mas que daí ele vai basicamente dizer assim, olha,
[01:31:01] eu não sei o que acontece, mas eu vim desde…
[01:31:03] Ele basicamente diz a história aí, tipo,
[01:31:05] ele é desde o tempo das cavernas
[01:31:06] e, tipo, ele percebeu que
[01:31:09] todo mundo morria em volta dele e ele nunca morria.
[01:31:11] E daí ele passou por
[01:31:13] tudo. Ah, eu sei, ok.
[01:31:14] Você sabe, você lembra o nome? É o Homem em Alguma
[01:31:17] Coisa, né? Last Man on the Earth.
[01:31:19] Não sei se é Last Man on Earth.
[01:31:21] Esse é outro. O Homem em Alguma
[01:31:23] Coisa, é. É, mas eu sei que daí
[01:31:25] ele… É bem antiguinho, né? É bem
[01:31:27] antigo, é bem antigo. Que daí,
[01:31:29] era bacana também pelas discussões
[01:31:31] que ele colocava do tipo…
[01:31:33] Eu não vou dar spoiler, porque tem coisas
[01:31:35] muito legais, apesar do filme ser antigo.
[01:31:36] Mas é sobre imortalidade. É sobre imortalidade.
[01:31:39] Tipo, como é que um homem imortal
[01:31:41] veria toda…
[01:31:44] Tudo que tá acontecendo pela
[01:31:45] Terra, como é que ele se envolve
[01:31:47] com os amigos, assim, e tal. Tipo, é um filme
[01:31:49] e, cara, tem seis atores, assim, que se passam
[01:31:51] numa sala e é do caralho, assim,
[01:31:53] sabe? Então… Assiste Highlander
[01:31:55] que tem espada, Bruno.
[01:31:56] Tem ela.
[01:31:59] E com essa eu acho que eu posso
[01:32:02] fazer o meu último comentário em relação ao filme
[01:32:04] que o nome da
[01:32:05] personagem, né, da ciborgue
[01:32:08] é Ava, né? Que é uma relação
[01:32:10] com o Iva, né? Primeira mulher e tal.
[01:32:13] Mas a Ava
[01:32:14] me lembra, na hora,
[01:32:16] Angels and Airwaves, excelente
[01:32:18] banda do Tom DeLonge,
[01:32:20] né? Que era do
[01:32:22] Blink 182. Uma banda
[01:32:24] muito melhor que Blink, tome nos seus
[01:32:26] cus. Eu gosto muito mais de Angels and Airwaves.
[01:32:29] O primeiro disco deles é uma obra
[01:32:30] prima. Até pedi, Felipe,
[01:32:32] termina com a música deles aí, tá?
[01:32:36] Últimos comentários aí, pessoal.
[01:32:38] O filme que você tava falando era o The Man from the Earth?
[01:32:40] The Man from the Earth, acho que é isso.
[01:32:42] De 83.
[01:32:44] The Man from…
[01:32:46] Deixa eu até ver.
[01:32:47] Deve ter um título terrível.
[01:32:50] O Homem da Terra.
[01:32:51] O Homem da Terra.
[01:32:54] O Homem da Terra, é isso mesmo.
[01:32:57] O Homem da Terra.
[01:32:59] Homem da Terra.
[01:32:59] Vejam aí esse filme que é muito legal.
[01:33:02] Ah, e aqui apareceu como referência,
[01:33:03] olha que legal, hein? Pessoas que gostaram
[01:33:05] desse filme também gostaram de Moon,
[01:33:07] Mr. Nobody, The Fountain,
[01:33:10] lá do Aronofsky,
[01:33:11] Filhos da Esperança, Children of Man,
[01:33:15] O Décimo Terceiro Andar
[01:33:16] e K-Pax,
[01:33:17] que é um filme muito legal também.
[01:33:19] O Décimo Terceiro Andar é muito bom.
[01:33:20] Tem gente que fala que é melhor que Matrix.
[01:33:22] É, eu, olha, eu, eu, eu…
[01:33:25] Eu, eu, eu, eu tenho que pensar
[01:33:27] sobre esse assunto.
[01:33:29] É, tudo ficção científica.
[01:33:30] É, tudo ficção científica, só que com esses, né,
[01:33:32] esses tchananã, então.
[01:33:34] Eu me enquadraria
[01:33:36] o X-Machina
[01:33:38] entre os filmes apocalípticos.
[01:33:40] Ainda que seja
[01:33:41] individual, né, quer dizer, psicológico.
[01:33:44] Mas isso também é a gente dizendo, né?
[01:33:46] Nada deixa claro que ela vai matar
[01:33:48] a sociedade inteira lá fora, né?
[01:33:50] Ela só quer ser humana, eu acho.
[01:33:52] É, pode ser que ela só vá lá e vai conseguir,
[01:33:54] vai abrir os classificados no dia seguinte pra pegar um emprego.
[01:33:56] Mas, cara, ela representa, entende?
[01:33:59] O…
[01:33:59] A criação daquele cara
[01:34:02] que é o último homem, entendeu?
[01:34:04] Eu não acho que ela vai
[01:34:05] exterminar a raça humana.
[01:34:07] Mas você não acha que ela tem um
[01:34:10] ideal meio romântico, assim?
[01:34:12] Tipo, ah, eu quero ser livre.
[01:34:14] Tipo, e feliz.
[01:34:16] Não, mas aí que tá.
[01:34:17] Ela é capaz de matar, né? Esse é o problema.
[01:34:20] Não, mas o ser humano também, porra.
[01:34:22] Não, não, o lance é que ela não tem…
[01:34:24] Mas ela é… Porra, pera aí, né?
[01:34:26] Ela é um cabanço.
[01:34:29] O que fica claro é que ela é maquiavélica.
[01:34:32] Aham.
[01:34:33] E a questão é que, tipo,
[01:34:35] ela, tipo assim…
[01:34:37] Talvez maquiavelista fosse o melhor termo.
[01:34:40] Maquiavelista. Não maquiavélica no sentido
[01:34:42] senso comum.
[01:34:43] É, mas é uma infestação
[01:34:45] que fez ela fazer aquilo.
[01:34:46] Não, não, mas a questão é assim, ela…
[01:34:50] Sabe, representa o protótipo do último
[01:34:53] homem, ou do niilismo, sabe?
[01:34:55] Tipo, se eu, sabe,
[01:34:57] chutasse, assim,
[01:34:58] uma versão 2 do filme,
[01:35:00] ela não seria, sabe,
[01:35:02] eu acho que isso que aconteceria,
[01:35:04] ela não se distinguiria das pessoas
[01:35:06] na sociedade e tal,
[01:35:08] e simplesmente ia ficar nessa regra
[01:35:10] extremamente
[01:35:11] reacionária do último
[01:35:14] homem, que é, tipo, sabe,
[01:35:16] cada um por si, olho por olho, dente por dente,
[01:35:19] e, entendeu?
[01:35:20] E pau no teu cu.
[01:35:22] É, sabe, eu vou, sabe,
[01:35:24] vou fingir amor, vou fingir qualquer coisa,
[01:35:26] porque, sabe, nada vale a pena.
[01:35:28] Assim, ou seja, o filme
[01:35:30] é, assim, se resume
[01:35:31] na famosa,
[01:35:34] no famoso lema do Baudelaire,
[01:35:36] né? Anywhere, né?
[01:35:37] Qualquer lugar menos aqui.
[01:35:40] Qualquer lugar que não seja este.
[01:35:42] Ela, ela,
[01:35:43] aí que tá, ela foi programada com esse espírito
[01:35:45] romântico, e daí, entende,
[01:35:47] sempre fica nessa fuga, assim, de um lugar
[01:35:49] mais… Enfim, eu realmente achei…
[01:35:52] Você mantém emprego?
[01:35:55] Geração Y.
[01:35:56] É, geração Y.
[01:35:58] Millennium.
[01:35:58] Não, mas, sabe,
[01:36:01] é um retrato do
[01:36:03] niilismo, é isso que eu vi no filme, assim.
[01:36:06] Eu posso estar realmente bem
[01:36:07] enviesado, vai ter gente,
[01:36:10] eu já tô vendo nos comentários, ah, o Beccari tá
[01:36:12] maluco. É, o pessoal não vai nem ter visto
[01:36:13] o filme pra falar com ele, então relaxa.
[01:36:16] É, mas, sabe, tipo,
[01:36:18] sei lá, eu realmente…
[01:36:19] Daí vão falar assim, ah, então
[01:36:21] vocês esperavam algo assim, o amor constrói
[01:36:24] as coisas. O amor constrói.
[01:36:26] Melhor filme de amor constrói é P.S.
[01:36:28] Eu Te Amo, já falei. É o filme que me fez acreditar
[01:36:30] no amor de novo, tá?
[01:36:31] Não foi Interestelar, foi
[01:36:33] P.S. Eu Te Amo. Olha aí.
[01:36:35] É um julgamento sempre dicotômico,
[01:36:38] né? Fala assim, cara, você fala
[01:36:40] mal do niilismo,
[01:36:42] então você é cristão.
[01:36:46] Então você acredita
[01:36:48] em Deus. Ou seja, você quer que
[01:36:49] você queria que eles
[01:36:51] vivessem felizes pra sempre.
[01:36:54] É, casasse, e
[01:36:55] daí tivesse aqueles dramas, pô, você não pode
[01:36:57] ter filho e tal.
[01:37:01] Mas eu ia curtir que fosse
[01:37:03] assim, de verdade. Eu acharia interessante.
[01:37:05] Eu acharia interessante um filme. Seria melhor
[01:37:07] do que… Porque pra mim
[01:37:09] essa era a solução,
[01:37:12] sabe? Tipo, ela ia matar todo mundo,
[01:37:13] assim. Tipo, porque a gente já parte
[01:37:15] do princípio que não se confia em máquina, tá?
[01:37:17] É, é que a gente tem muitos anos
[01:37:19] de cinema batendo nessa
[01:37:21] tecla, né? É, isso, sabe? Então por isso que…
[01:37:23] E de Transformers… Mais uma vez, por isso que Her
[01:37:25] é foda. Her, aquele final, é…
[01:37:27] É perfeito pra ela. Tão hipster quanto…
[01:37:30] Eu acho que se ela ficasse com o
[01:37:31] cara no final, ia ser tão, digamos,
[01:37:33] clichê e jargão quanto.
[01:37:35] Porque é uma coisa bem…
[01:37:37] Daí sim, romantizada, né?
[01:37:39] Tipo, vai lá, vai lá, e já que
[01:37:41] o cara tava apaixonado, aí ela
[01:37:43] também, daí enfim…
[01:37:45] Mas ia ser legal o climão, tipo, puta, matamos
[01:37:47] gente pra caralho pra tá aqui junto.
[01:37:49] Não, mas é que tá. Por que que o Her
[01:37:51] é mais interessante, me parece? Porque
[01:37:53] a…
[01:37:55] Qual que é o nome dela?
[01:37:56] A… A Scarlett Johansson, é?
[01:37:59] A Samanta.
[01:38:00] Ela… Cara, ela não mata ninguém,
[01:38:02] ela tá cagando, assim. Ela só acaba
[01:38:04] com o coração… Ela só fode a vida
[01:38:06] do pobre… Do pobre
[01:38:08] Joaquim Fênix.
[01:38:10] Tudo bem, mas sabe?
[01:38:12] Tipo, não tem crueldade alguma, assim, ou seja…
[01:38:15] Ah, e
[01:38:16] de mais de duas mil pessoas
[01:38:18] também que consumiam ela, né? Então…
[01:38:22] Ah, mas sabe? A vida segue, entendeu?
[01:38:24] Tipo… Sim, sim, sim.
[01:38:26] Nesse…
[01:38:27] Ex-Machina… É até mais naturalizada,
[01:38:30] né? Se for pensar. Exatamente, mas
[01:38:32] daí no Ex-Machina, a máquina é malvada
[01:38:34] mesmo. Ela é o capeta ali.
[01:38:36] É, pau no cu dela. É.
[01:38:38] Ela mata todo mundo, não tem sentimento,
[01:38:40] sabe? Não tem dignidade humana.
[01:38:42] Não tem escrúpulo, nem nada.
[01:38:44] É, daí isso aí vai, sabe?
[01:38:46] O Habermas vai assistir esse filme e vai falar
[01:38:48] tá vendo? Tá vendo?
[01:38:50] Tá vendo o que acontece?
[01:38:51] É isso que vai acontecer.
[01:38:54] Sabe?
[01:38:55] Não se precaver.
[01:38:56] Tá certo. Então, gente, chega por hoje, né?
[01:38:59] Acho que já tá bom, já falamos um monte.
[01:39:01] Espero que tenham gostado dessa merda aqui.
[01:39:04] Então…
[01:39:04] É porque foi difícil gravar essa merda.
[01:39:06] Foi difícil. Foi muito difícil.
[01:39:08] Por isso que a gente pegou leve com o filme, inclusive,
[01:39:11] pra… porque ele tá bravo com a gente.
[01:39:14] Então é isso, gente.
[01:39:15] Então, leitura de comentários
[01:39:16] do programa abaixo. Se divirtam aí.
[01:39:19] Um beijo. Tchau. Até semana que vem.
[01:39:26] Transcrição e Legendas Pedro Ribeiro Carvalho
[01:39:56] Legendas Pedro Ribeiro Carvalho
[01:40:26] Legendas Pedro Ribeiro Carvalho
[01:40:56] Legendas Pedro Ribeiro Carvalho
[01:41:26] Um grande beijo. Obrigado.
[01:41:28] E tchau. Até semana que vem.
[01:41:29] Tchau.
[01:41:56] Legendas Pedro Ribeiro Carvalho
[01:42:26] Legendas Pedro Ribeiro Carvalho