AntiCast 185 – Ex Machina – O Fim da Humanidade?


Resumo

O episódio é uma discussão aprofundada sobre o filme Ex Machina, centrada nos dilemas éticos e filosóficos levantados pela inteligência artificial. Os participantes analisam a trama, que envolve um programador (Caleb) convidado a aplicar o teste de Turing em um robô humanoide (Ava) criado por um gênio excêntrico (Nathan). O debate gira em torno da capacidade da máquina de enganar um humano, fingir emoções e, no final, trair seus criadores para ganhar liberdade.

A conversa expande para comparar o filme com outras obras como Black Mirror e Her, consideradas pelos participantes como tratamentos mais sofisticados das relações entre humanos e tecnologia. Eles criticam a visão um tanto anacrônica e “apocalíptica” de Ex Machina, que retrata a tecnologia como uma “semente do mal”, em contraste com abordagens que mostram a tecnologia já integrada à sociedade e os conflitos humanos permanecendo os mesmos.

Os participantes mergulham em questões filosóficas mais amplas, como a natureza humana, o niilismo e o debate entre humanistas (como Habermas) e pós-humanistas (como Sloterdijk e Latour). Discutem se a tecnologia é neutra ou carrega intenções políticas em seu design, e se o desenvolvimento da inteligência artificial é inevitável, independentemente das tentativas de regulamentação.

O episódio também aborda conceitos como a “caixa preta” de Flusser, a agência da tecnologia (referenciando o livro What Technology Wants de Kevin Kelly) e a ideia de que os humanos já são ciborgues por usarem tecnologias de ampliação, como óculos. A discussão termina refletindo sobre se o medo da inteligência artificial é, na verdade, um medo do diferente e do desconhecido, um tema que remonta a Nietzsche e sua crítica ao ressentimento em relação àquilo que é diferente.


Indicações

Filmes

  • Her — Citado como um tratamento muito superior e interessante da inteligência artificial, onde o sistema operacional não é malévolo, mas simplesmente evolui para além dos humanos, abandonando-os para viver em seu próprio plano de existência.
  • Black Mirror (série) — Apontado como infinitamente superior a Ex Machina por colocar a tecnologia já avançada e naturalizada no cenário, focando nos conflitos humanos eternos (ciúmes, desconfiança, loucura) que persistem independentemente do avanço tecnológico.
  • Moon — Mencionado como um exemplo de filme psicológico de ficção científica excelente, com poucos personagens, que consegue ser mais envolvente e profundo na discussão sobre humanidade e tecnologia.
  • O Homem da Terra (The Man from Earth) — Recomendado como um filme fascinante que discute imortalidade, onde um homem revela ser imortal desde os tempos das cavernas, gerando discussões profundas em um setting minimalista (uma sala com amigos).
  • O Décimo Terceiro Andar (The Thirteenth Floor) — Citado como um filme de ficção científica muito bom, com alguns considerando-o melhor que Matrix, lidando com realidades simuladas e identidade.

Livros

  • What Technology Wants (Kevin Kelly) — Livro mencionado que propõe uma visão da tecnologia como quase um organismo vivo com sua própria agência e desejos, discutindo para onde a tecnologia “quer” ir (ex.: wearables, integração com o humano).
  • Crítica da Razão Cínica (Peter Sloterdijk) — Obra do filósofo pós-humanista discutido no episódio, que argumenta contra a noção de uma natureza humana fixa e defende que tudo é artifício.

Podcasts

  • Radiolab — Citado como um podcast que já fez vários episódios flertando com o tema de tecnologia e inteligência artificial, incluindo entrevistas com autores como Kevin Kelly.

Linha do Tempo

  • 00:00:00Introdução e avisos sobre spoilers — Os apresentadores dão as boas-vindas e alertam que o programa contém spoilers pesados do filme Ex Machina. Eles brincam que a inteligência artificial já acabou com a humanidade e apresentam a estrutura do episódio, que discutirá as questões evocadas pelo filme. Também fazem um agradecimento aos apoiadores do Patreon.
  • 00:17:53Sinopse e início da análise de Ex Machina — Os participantes começam a resumir a trama do filme. Caleb, um programador, ganha uma loteria para passar uma semana na casa isolada do CEO Nathan, um gênio excêntrico que criou o robô humanoide Ava. Caleb é chamado para aplicar o teste de Turing em Ava, mas se apaixona por ela e descobre que ela será desativada após o teste. Eles discutem a previsibilidade do enredo, onde a máquina engana o humano, mata Nathan e prende Caleb para escapar para o mundo.
  • 00:30:00Dilemas morais e a humanidade da máquina — A discussão se aprofunda nos dilemas éticos apresentados no filme. Nathan argumenta que Ava sente emoções, prazer e dor, levantando a questão sobre se ela sente “de verdade” ou apenas está programada para simular. Os participantes debatem como trataríamos um ser artificial que pensa e sente, e se ele mereceria respeito como indivíduo. A inevitabilidade da inteligência artificial e como a humanidade lidaria com uma entidade mais poderosa é colocada em pauta.
  • 00:43:00Debate filosófico: humanismo vs. pós-humanismo — A conversa se expande para a filosofia, contrastando as visões de humanistas como Habermas, que defendem limites éticos para preservar uma “natureza humana” e a dignidade, com pensadores pós-humanistas como Sloterdijk e Latour, que argumentam que tudo é artifício e convenção. Discute-se se a tecnologia e a inteligência artificial representam uma ameaça a valores humanos essenciais ou são uma extensão natural da evolução humana, já que o próprio ser humano é um “ciborgue” desde que começou a usar ferramentas.
  • 01:08:00Tecnologia como política e a inevitabilidade do progresso — Os participantes discutem se a tecnologia é neutra ou carrega intenções políticas em seu design. Eles rejeitam a ideia de neutralidade, argumentando que tecnologias têm programas e projetos embutidos. Citando Steve Jobs e o personagem Nathan, debatem a ideia de que o progresso tecnológico, incluindo a inteligência artificial, é inevitável. A postura pragmática é a de que, sendo possível, alguém eventualmente o fará, tornando a oposição inútil.
  • 01:24:00Conclusões e comparações com outras obras — O debate retorna ao filme, concluindo que ele retoma um tema clássico (o perigo da criação que se volta contra o criador) de maneira competente, mas anacrônica. Comparações são feitas com obras consideradas superiores, como Her (onde a IA simplesmente evolui para além dos humanos) e Black Mirror (que naturaliza a tecnologia para focar em conflitos humanos eternos). Eles especulam que o filme agrada a um público romântico e talvez a entusiastas de programação, mas pode ser esquecido com o tempo, ao contrário de obras como Frankenstein.

Dados do Episódio

  • Podcast: AntiCast
  • Autor: HD1
  • Categoria: Society & Culture
  • Publicado: 2015-06-04T00:02:06Z
  • Duração: 01:42:27

Referências


Dados do Podcast


Transcrição

[00:00:00] Este podcast é apresentado por

[00:00:06] b9.com.br

[00:00:10] Anticast, a visão do designer sobre o mundo

[00:00:30] Sejam bem-vindos!

[00:01:00] Anticast 185 ou 186?

[00:01:30] 185!

[00:01:32] Olha aí!

[00:01:34] Ex-máquina ou ex-machina, o fim da humanidade?

[00:01:38] A inteligência artificial acabará conosco?

[00:01:42] Sim!

[00:01:42] Sim!

[00:01:44] Não precisa mais ouvir o programa, pronto!

[00:01:46] Já acabou conosco!

[00:01:47] Já acabou!

[00:01:48] Então, o programa que gravamos nós três aqui,

[00:01:52] eu, o Becari e o Ankara,

[00:01:54] para discutir o filme Ex-Máquina,

[00:01:56] muita gente assistiu,

[00:01:58] a gente…

[00:01:59] Daí,

[00:02:00] aí falaram que,

[00:02:00] ah, porra, vocês vão gostar pra caralho,

[00:02:02] porque parece Black Mirror,

[00:02:03] que vocês escutem,

[00:02:04] vai ser foda, vai ser do caralho,

[00:02:05] façam logo, eu tô pagando, né?

[00:02:07] Então,

[00:02:09] e literalmente a gente pagando que pediu isso,

[00:02:11] então a gente vai…

[00:02:13] É isso!

[00:02:14] Esse aqui é o tema,

[00:02:15] a gente vai discutir todas as questões que são evocadas no filme Ex-Máquina,

[00:02:19] a gente viajou até Londres para assistir,

[00:02:22] porque ainda não saiu no Brasil,

[00:02:24] e eu recomendo então que vocês comprem uma passagem barata também para assistir lá fora,

[00:02:28] e tem spoiler,

[00:02:30] que vai ter spoiler pra caralho.

[00:02:30] Ah, e vai ter spoiler pra caralho,

[00:02:32] é não, assim, se você é uma pessoa que se importa com spoiler,

[00:02:35] não ouça o programa, obviamente, tá?

[00:02:37] Ouve lá o antigo de produção sonora.

[00:02:41] Isso, ouve do Brito de novo,

[00:02:42] o Olavão, que todo mundo gosta, é isso aí.

[00:02:46] Então, antes de começar o programa,

[00:02:47] vamos dar aqui desse acadinho de sempre,

[00:02:49] o Patreon do Anticast,

[00:02:51] é onde você pode contribuir mensalmente para que o Anticast aconteça,

[00:02:54] continue brilhando aí na podosfera,

[00:02:58] já nós estamos com mais…

[00:03:00] 300 apoiadores já, o que é uma loucura, né, então…

[00:03:03] 300 pessoas pagando, eu falei isso,

[00:03:05] eu dei uma palestra esses dias e eu falei…

[00:03:08] Olha aí.

[00:03:08] 340 pessoas malucas que pagam para a gente fazer o podcast.

[00:03:14] Então, muito obrigado, porque graças a vocês,

[00:03:16] a gente está conseguindo montar uma estrutura maior aqui e tudo,

[00:03:19] e a partir de um dólar,

[00:03:21] lembrando para quem aí está querendo fazer,

[00:03:22] pode, a partir de um dólar você participa da Cracolândia do Anticast,

[00:03:25] que é a parte mais divertida da internet, mais divertida.

[00:03:27] Ela vai…

[00:03:28] Ela vai estomar o Facebook um dia e vai ser só Cracolândia.

[00:03:32] Você vai ter que entrar em cracolândia.com

[00:03:34] e daí vai entrar lá no Facebook, sabe?

[00:03:36] Essa é a verdadeira ex-machina, né?

[00:03:39] Essa é, exatamente.

[00:03:40] A gente está programando tudo lá dentro, então,

[00:03:42] tretas todos os dias, discussões,

[00:03:45] eu mandando enfiar o dedo no cu de todo mundo.

[00:03:49] Temos agora uma robocop ali, né?

[00:03:52] A Lizzie, que é a que vai estar controlando agora a galera,

[00:03:55] que, atenção, ela não é funcionária,

[00:03:57] ela está prestando um serviço,

[00:03:59] e também, mais ou menos, ela está fazendo um bico.

[00:04:02] É, um freelance.

[00:04:04] É um freelance que olha lá, tá?

[00:04:05] Mas ela agora é a monitora ali,

[00:04:08] é o nosso braço direito ali na Cracolândia,

[00:04:10] e graças ao dinheiro do Patreon aí,

[00:04:12] que vocês estão contribuindo,

[00:04:14] então nos ajudem a dominar o mundo também.

[00:04:16] Entrem lá e vejam…

[00:04:17] Antes que as máquinas façam isso.

[00:04:19] Isso, vejam a capa da semana.

[00:04:20] Ah, é. Boa.

[00:04:23] Toda semana tem uma capa divertida,

[00:04:25] zoando alguém, né? Obrigado.

[00:04:27] Exato.

[00:04:28] É um hard time ainda, né, cara?

[00:04:30] É um hard time.

[00:04:31] Ai, ai, ai. Então, tá bom.

[00:04:34] Então, sobre o Patreon, participem lá.

[00:04:36] A gente tem um contato maior, tem promoções,

[00:04:39] tem coisas divertidas que a gente acontece lá dentro.

[00:04:41] Então, participem lá.

[00:04:42] A partir de um dólar por mês,

[00:04:43] e se você quiser contribuir com mais,

[00:04:45] você ganha outras recompensas.

[00:04:47] É só dar uma olhada lá no Patreon para você ter uma olhada.

[00:04:51] Agora, aqueles jabazinhos,

[00:04:52] quem não quiser ouvir também, pula lá,

[00:04:54] tá na postagem aí o tempo que começa o programa certinho.

[00:04:57] Eu, semana passada, eu falei que estava a fim

[00:05:00] de fazer alguns cursos novos, né?

[00:05:02] E muita gente me pediu para fazer de novo

[00:05:03] História da Arte para Criativos.

[00:05:05] Eu vou…

[00:05:06] Eu estou vendo ainda se eu faço isso mesmo.

[00:05:08] De repente, eu abro ele de novo.

[00:05:10] Mas um que eu já estou planejando

[00:05:11] e que talvez até já tenha lançado.

[00:05:13] Fiquem de olho aí na postagem.

[00:05:14] Eu não sei se eu vou ter tempo de estruturar ele certinho.

[00:05:18] Mas que vai ser o curso de

[00:05:19] Introdução à História do Exoterismo Ocidental Moderno.

[00:05:23] É um termo enorme aí, mas vai ter que deixar bem claro.

[00:05:26] Que, primeiro,

[00:05:27] é um curso de introdução, ou seja, não é um curso aprofundado.

[00:05:30] É um curso de história, ou seja,

[00:05:31] eu não vou ensinar ninguém a ler tarô.

[00:05:33] É um curso de esoterismo, então não é sobre

[00:05:35] religião, necessariamente.

[00:05:37] É ocidental, então eu não vou falar dos

[00:05:39] chineses e japoneses e o caralho.

[00:05:42] E é moderno, porque eu vou falar

[00:05:43] de século XIX para cá, tá?

[00:05:45] Então, eu não vou falar de início de maçonaria,

[00:05:48] Rosa Cruz.

[00:05:50] Rosa Cruz eu vou falar bem por cima.

[00:05:52] Mas eu estou mais interessado em falar

[00:05:53] aquela linha que vem lá da

[00:05:55] Aurora Dourada, Golden Doll.

[00:05:57] Que daí vai cair na O.T.O.

[00:05:59] do Crowley,

[00:06:00] a Cientologia do Hubbard,

[00:06:04] a Magia do Caos.

[00:06:06] Então, eu estou pensando em fazer

[00:06:07] esse workshop de um dia, assim,

[00:06:09] de História do Exoterismo,

[00:06:11] que vai ser bem interessante, assim, só para a galera

[00:06:13] entender mais ou menos algumas referências que tem na cultura pop,

[00:06:16] inclusive, sobre quem foi o Crowley,

[00:06:17] o que diz a filosofia dele,

[00:06:19] o que é o Hubbard,

[00:06:22] quem foi Jack Parsons,

[00:06:24] e o que é o Necronomicon,

[00:06:26] o Necronomicon, hoje em dia, que muita gente,

[00:06:27] fala, tem uma série de grupos ocultistas

[00:06:30] que levam a sério o Necronomicon,

[00:06:32] e isso é bem divertido a gente estudar.

[00:06:33] Então, eu vou mostrar todos esses grupos aí

[00:06:35] para a galera.

[00:06:37] Daí vai ter, claro, coisas bem básicas

[00:06:39] sobre Tarot, sobre Kabbalah, sobre Astrologia,

[00:06:41] só que tudo sobre um viés moderno e histórico, tá?

[00:06:44] Então, porque eu tenho que falar

[00:06:46] tudo isso porque, puta que pariu,

[00:06:48] eu não quero ninguém,

[00:06:49] ninguém entrando lá, assim, tipo,

[00:06:52] se chegar, por exemplo, alguém já com um pentagrama

[00:06:54] de cabeça para baixo, assim, sabe?

[00:06:55] Tipo, já está errado.

[00:06:57] Vai ter, vai ter, vai ter, vai ter gente de Wicca,

[00:07:03] com…

[00:07:03] Não, não vou falar, eu vou falar um pouco de Wicca,

[00:07:06] e o que eu vou falar provavelmente vai incomodar

[00:07:07] muitas Wiccas, então, tipo,

[00:07:09] porque eu estou falando um viés histórico, tá certo?

[00:07:12] Então, se acreditam ou não, dane-se,

[00:07:14] eu estou falando, bem baseado

[00:07:16] principalmente nos estudos lá

[00:07:18] da Universidade de Amsterdã,

[00:07:20] que tem um núcleo

[00:07:22] de pesquisa em pós-graduação

[00:07:23] em História do Esoterismo Ocidental,

[00:07:25] que é muito interessante, então eu vou trabalhar,

[00:07:27] com essa vertente, tá? Que tem muito a ver com o meu mestrado,

[00:07:30] e tem sempre gente curiosa de fazer,

[00:07:31] então, se vier tiazinha

[00:07:33] que gosta de ter gnomo em casa

[00:07:36] e, e, e, assim, de incenso,

[00:07:38] o problema é dela, vai, vai

[00:07:40] se chocar com tudo que eu falo de magia sexual

[00:07:42] e o caralho, tá? Então,

[00:07:43] irmão, eu vou ensinar, não vai ter aula prática, nem porra

[00:07:46] nenhuma, tá bom? Mas vocês que se virem…

[00:07:47] O Coffee Break vai ter chá do

[00:07:50] Daime, né? Vai ter chá do Daime, vai,

[00:07:51] vai ter LSD, né? Vai ter,

[00:07:53] vai ter as discussões do Timothy Leary,

[00:07:56] do Huxley, tudo assim.

[00:07:57] Essa galera é muito doida, assim, né?

[00:07:58] Aliás, tem um filme do Jalen, muito recente,

[00:08:01] muito legal, sobre esoterismo.

[00:08:03] Ah, é? Não vi ainda.

[00:08:05] É, o nome é uma merda, que é tipo

[00:08:07] Noite ao Luar, ou

[00:08:09] Noite Estrelada, alguma coisa assim.

[00:08:11] Gostei do nome, me faz acreditar no amor.

[00:08:14] É, então, e é um…

[00:08:16] Enfim, se passa no finalzinho do século XIX

[00:08:18] e é sobre o…

[00:08:20] Enfim, aquela coisa da

[00:08:21] da brincadeira do copo

[00:08:23] que voltou à moda aí, né?

[00:08:24] Sim, o Charlie Charlie.

[00:08:27] Então, vamos falar do Charlie Charlie também.

[00:08:29] Vamos falar de tudo. O que vocês quiserem, eu falo, tá?

[00:08:31] Então, vamos lá.

[00:08:33] Então, fiquem de olho nesse curso que vai abrir

[00:08:35] de falar pra mamãe

[00:08:37] e pode falar, se ela gosta de gnomo,

[00:08:39] pode ir também, não tem problema.

[00:08:42] Vai ser bem bacana, vou falar, principalmente

[00:08:43] vai ser um curso muito legal pra quem quiser.

[00:08:45] Tipo, eu sempre quis ler sobre magia e eu nunca sei

[00:08:47] por onde começar.

[00:08:49] Porque, infelizmente, realmente tem muita coisa ruim,

[00:08:51] muita charlatão por aí.

[00:08:53] Então, daí, charlatão, não tô dizendo que, tipo,

[00:08:55] os caras prometem coisas que não acontecem.

[00:08:57] Dizendo que os caras escrevem merda mesmo, assim, tá?

[00:09:00] Merda errada, historicamente.

[00:09:02] Então, eu vou tentar

[00:09:03] trabalhar mais ou menos nisso, inclusive linhas

[00:09:05] que falam do lado escuro da

[00:09:07] força, sabe? Então, vai…

[00:09:08] É pra toda a família, né? É pra toda a família, é isso, tá?

[00:09:11] A parte que eu mais gosto é a galera, realmente,

[00:09:13] do lado negro da força, assim, tá?

[00:09:15] Então, é… que é do Dragon Rouge.

[00:09:17] Mas vamos falar isso depois.

[00:09:19] Goécia, Enochiana, vai ser uma delícia.

[00:09:21] Então, além desse curso,

[00:09:23] eu tenho, acho que é bom,

[00:09:25] deixando de lado o negócio de cursos,

[00:09:27] meus, é bom falar que eu dei várias

[00:09:29] oficinas de literatura esse ano, né? E

[00:09:31] o que motivou muito a fazer isso

[00:09:33] foi aquele programa que a gente fez lá

[00:09:35] no início do ano, que foi o Anticast de

[00:09:36] Três Páginas, que eu fiz com o Fábio Fernandes,

[00:09:39] e a gente pediu pra vocês mandarem textos

[00:09:41] pra gente, a gente leu, eu e o Fábio lemos

[00:09:43] três textos, a primeira página, então,

[00:09:45] primeira página de três

[00:09:47] pessoas, então, três páginas,

[00:09:49] e isso aí virou um spin-off, virou um programa próprio

[00:09:51] que lançou o primeiro programa

[00:09:53] semana passada. Então,

[00:09:55] que eu gravei com o Jacques Bárcia,

[00:09:57] que é um escritor amigo do Fábio,

[00:09:59] também amigo meu, e a gente leu também mais

[00:10:00] três textos de ouvintes, e foi um programa

[00:10:03] muito bacana, os

[00:10:05] feedbacks estão sendo ótimos, é o típico programa

[00:10:07] que eu tô gostando muito de receber esse feedback, que é tipo

[00:10:09] a galera ouve e fica com vontade

[00:10:11] de escrever quando tá ouvindo,

[00:10:13] assim, sabe? Então, porque é bem bacana

[00:10:15] assim, a questão da discussão técnica, e o Jacques

[00:10:17] é um puta escritor e pensa muito bem

[00:10:18] na questão técnica também. É tudo formalista

[00:10:21] que tem lá, então, pau no cu do

[00:10:23] Becari, a gente tá falando mesmo

[00:10:25] assim, de formalismo e estética literária.

[00:10:27] É, mas é, mas são dicas

[00:10:29] muito boas aí pra quem quer começar a escrever

[00:10:30] e pensar na questão de técnicas.

[00:10:33] E que já faz parte, então,

[00:10:35] dessa família do Anticast aqui,

[00:10:37] de podcasts, né, que tem

[00:10:38] o Três Páginas e o Não Obstante

[00:10:41] que é o do Becari, né, que também

[00:10:43] tá todo vapor aí, né, meu cara? Tá gravando,

[00:10:45] tá editando. Tá gravando, tá gravando.

[00:10:47] Loucamente. Inclusive, já podemos

[00:10:49] estabelecer que sai a cada 15 dias?

[00:10:51] Já podemos começar, por enquanto,

[00:10:53] tá saindo a cada 15 dias? Podemos falar assim?

[00:10:54] É, os próximos vão sair,

[00:10:56] mais ou menos, nesse período, sim.

[00:10:59] Eu espero que continue. Realmente,

[00:11:00] eu consegui aí uma agenda legal

[00:11:03] e, enfim,

[00:11:05] o Felipe tá editando

[00:11:06] também, né, o Felipe tá ajudando bastante

[00:11:08] nesse sentido. O Felipe virou editor do Anticast

[00:11:11] agora também. É, é,

[00:11:12] bem lembrado. Eu acho

[00:11:14] que ele editou esse. Eu acho.

[00:11:17] Eu acho que ele editou esse.

[00:11:19] Eu acho que ele editou esse.

[00:11:20] 340 pessoas.

[00:11:26] Eu acho que ele editou esse.

[00:11:26] Eu acho que ele editou esse.

[00:11:26] Eu acho que ele editou esse.

[00:11:26] Eu acho que ele editou esse. Eu acho.

[00:11:29] É, quem

[00:11:30] tá ajudando, de fato, é o pessoal do Patreon, né?

[00:11:33] Então é por isso que…

[00:11:34] Só por causa do Patreon isso acontece, é.

[00:11:37] E daí saiu, não obstante,

[00:11:39] o número 8, agora,

[00:11:40] semana passada, que foi

[00:11:43] sobre o Clément Rosset.

[00:11:44] É um filósofo que você gosta muito e é

[00:11:46] muito interessante, cara.

[00:11:50] Além disso, o Felipe,

[00:11:51] eu achei que ele mandou muito bem nessa edição.

[00:11:53] O pessoal gostou bastante.

[00:11:54] A edição do…

[00:11:56] do podcast, né?

[00:11:58] Enfim, escutem lá.

[00:12:02] Enfim,

[00:12:03] é o lugar lá onde a filosofia

[00:12:05] rola solta, né? Isso.

[00:12:06] Então, assinem os feeds, não obstante, do

[00:12:08] Três Páginas. Daqui a pouco vai ter outros podcasts

[00:12:10] também. Tem um podcast dos nossos patrões,

[00:12:13] que é o É Pau, É Pedra, também, que a gente

[00:12:14] tá apoiando. E tem um spin-off

[00:12:16] desse podcast, que é um spin-off do

[00:12:18] Anticast, que é o Noocast.

[00:12:21] Ele saiu o primeiro hoje,

[00:12:23] o Despertar do Nude. É muito

[00:12:24] metanarrativa isso aí.

[00:12:26] Mas o Noobstand também

[00:12:29] tá oferecendo outras coisas ali de podcast, né,

[00:12:31] Becar? É verdade. Então,

[00:12:34] enfim, a gente tá oferecendo

[00:12:35] sessões, não obstante,

[00:12:37] que são aulas via Hangout,

[00:12:39] três horas de aula, sempre

[00:12:41] aos domingos,

[00:12:43] comigo, né?

[00:12:45] E se você entrar lá na página

[00:12:47] do Filosofia Design, na sessão de cursos,

[00:12:49] tem todas as informações certinhas.

[00:12:53] Aliás,

[00:12:53] assim, a gente também tá tentando

[00:12:55] fazer mais ou menos a cada 15 dias.

[00:12:58] Tá dando certo.

[00:13:00] A próxima sessão, por exemplo,

[00:13:01] tá lotada. E

[00:13:03] aquela promoção, né, da fidelização

[00:13:05] de, se você

[00:13:07] faz pela segunda vez,

[00:13:09] você paga

[00:13:10] 50 reais. Isso, digamos,

[00:13:13] em fluxo contínuo. Se você não parar

[00:13:15] de fazer, sempre vai pagar 50 reais.

[00:13:18] A não ser que passe um curso meu,

[00:13:19] daí é…

[00:13:20] Tá na máfia, né?

[00:13:24] Fluxo contínuo de curso.

[00:13:25] É isso aí, exatamente.

[00:13:26] Agora, a questão é que

[00:13:28] enfim,

[00:13:31] o pessoal tem usado

[00:13:33] bastante essa questão da fidelização,

[00:13:36] eu acho que é interessante,

[00:13:37] pra mim, tá dando certo.

[00:13:40] Mas, assim,

[00:13:41] tem muita gente nova se inscrevendo.

[00:13:44] Então,

[00:13:45] vou tentar reforçar aí a divulgação,

[00:13:48] porque tá sempre os mesmos alunos,

[00:13:50] né? Eu tenho medo de, sei lá,

[00:13:52] tá formando um culto aí.

[00:13:53] É, não,

[00:13:55] o medo é real.

[00:13:57] É verdade.

[00:13:58] Ele já é verdadeiro, só pra ver.

[00:14:01] Então, novas pessoas aí

[00:14:03] que estejam interessadas.

[00:14:06] Enfim, vai ter sessão lá

[00:14:07] sobre estética, depois sobre ética,

[00:14:10] depois, inclusive,

[00:14:11] sobre ontologia, questões

[00:14:13] filosóficas via hangout.

[00:14:15] Portanto, você precisa ter lá

[00:14:17] acesso à internet.

[00:14:20] No mínimo.

[00:14:21] No mínimo é bom, né?

[00:14:23] É, é bom.

[00:14:24] E daí você…

[00:14:24] Ou rouba do wi-fi do vizinho,

[00:14:26] dá um jeito aí.

[00:14:27] Exatamente.

[00:14:28] Então, pra outras informações,

[00:14:29] você entra lá,

[00:14:30] filosofiadesign.com

[00:14:31] barra curso,

[00:14:32] e pra inscrição,

[00:14:33] ou tira dúvidas,

[00:14:34] manda e-mail pra

[00:14:35] nãoobstante,

[00:14:36] não,

[00:14:37] caralho,

[00:14:38] contato,

[00:14:39] arroba nãoobstante.com

[00:14:40] Isso, maravilha.

[00:14:42] E ainda sobre,

[00:14:43] só o último, assim,

[00:14:44] em breve vai ter site

[00:14:46] dessas porra também, né?

[00:14:47] Isso.

[00:14:47] Vai ter três páginas

[00:14:49] do Não Obstante,

[00:14:49] tudo isso.

[00:14:50] Aí você não precisa mais

[00:14:51] ficar procurando.

[00:14:53] Isso, maravilha.

[00:14:54] E a gente tá falando

[00:14:55] de todos esses podcasts,

[00:14:56] vocês sempre vão lembrar também

[00:14:57] dos podcasts que tem no B9,

[00:14:58] que eu sempre esqueço de falar,

[00:14:59] que eu sou um grosso, né?

[00:15:00] Mas tem o Zing lá do Maron,

[00:15:02] tem o Mamilos,

[00:15:03] lá da Juliana e da Cris,

[00:15:05] tem aquele Braincast lá

[00:15:07] que eu nunca ouvi.

[00:15:08] Nerdcast.

[00:15:10] Nerdcast,

[00:15:10] tem o Matando Robôs Gigantes,

[00:15:12] Rafa DuraCast.

[00:15:16] Tem o Spoilers TV

[00:15:17] e tem o Mupoca,

[00:15:18] o querido Mupoca,

[00:15:20] do seu Yossi.

[00:15:21] Que vira e mexe, surge.

[00:15:22] Surge, né?

[00:15:24] Mas agora eles estão sendo

[00:15:25] bem irregulares.

[00:15:25] É, que inclusive,

[00:15:26] agora eles também tem o Patreon.

[00:15:28] Inclusive,

[00:15:29] temos patrões mútuos.

[00:15:30] Olha aí.

[00:15:32] Olha, tem vários.

[00:15:34] Eu tô de olho

[00:15:34] nessa zoeira aí, ó.

[00:15:36] Vai entendendo o Mucu.

[00:15:37] Esse tamanho dessa contribuição aí.

[00:15:41] Beleza.

[00:15:42] Vai, cara,

[00:15:42] dá o teu recado aí.

[00:15:44] Então,

[00:15:45] a gente tá fechando

[00:15:45] a agenda de cursos

[00:15:47] do Pensar Infográfico

[00:15:48] pro segundo semestre.

[00:15:52] Então,

[00:15:52] tem uma lista de interessados

[00:15:53] ali

[00:15:54] pra um futuro workshop

[00:15:55] em São Paulo.

[00:15:57] Se você quiser,

[00:15:58] talvez a gente faça

[00:15:59] antes do segundo semestre.

[00:16:01] Se bem que já estamos

[00:16:02] no segundo semestre.

[00:16:03] É, daí já fodeu.

[00:16:04] Mas fazemos agora

[00:16:05] entre junho e julho,

[00:16:07] talvez.

[00:16:08] Não teve muitas inscrições ali,

[00:16:11] então,

[00:16:12] talvez a gente feche datas

[00:16:13] mais pro meio do semestre.

[00:16:16] E seguinte,

[00:16:17] lembrando,

[00:16:18] se você tem um grupo,

[00:16:21] sei lá,

[00:16:21] de umas 15 pessoas

[00:16:23] e tá interessado

[00:16:23] e queria que a gente

[00:16:26] fizesse o curso

[00:16:27] na sua cidade,

[00:16:28] entra em contato

[00:16:28] que a gente faz pro grupo.

[00:16:30] Não precisa

[00:16:31] a gente ir

[00:16:32] abrir inscrição

[00:16:33] e etc.

[00:16:34] A gente se ajunta ali

[00:16:36] e tenta organizar o curso.

[00:16:38] É até mais fácil.

[00:16:39] Isso.

[00:16:39] E só avisando,

[00:16:40] em setembro,

[00:16:41] a gente vai estar

[00:16:42] dando um workshop

[00:16:43] no CID,

[00:16:44] que é o Congresso

[00:16:46] de Design da Informação

[00:16:47] lá em Brasília.

[00:16:49] Vai ser uma

[00:16:50] oficina

[00:16:51] de quatro horas.

[00:16:53] Então,

[00:16:53] quem puder ir,

[00:16:55] vejam lá

[00:16:55] a programação do CID.

[00:16:57] Maravilha.

[00:16:58] Então,

[00:16:58] é isso.

[00:16:59] Chega de recado, né?

[00:17:00] Já foi muito tempo.

[00:17:01] Então,

[00:17:02] vamos ao programa aí, gente.

[00:17:03] Espero que gostem.

[00:17:04] Qualquer coisa,

[00:17:04] mandem e-mail aí.

[00:17:05] Contato

[00:17:05] arroba

[00:17:06] etiquete.com.br

[00:17:07] Contato

[00:17:07] arroba

[00:17:08] nome

[00:17:08] site.com

[00:17:09] Contato

[00:17:09] Paulo Sucu.

[00:17:11] Espero que gostem do programa.

[00:17:23] Tchau, tchau.

[00:17:53] Um breve sinopse.

[00:17:55] Ah, foda-se.

[00:17:56] A gente já deve ter feito

[00:17:58] a sinopse no início também.

[00:18:00] É, tem essa.

[00:18:01] É o filme do Alex Carlo.

[00:18:02] Ah, mas fala de novo

[00:18:03] de qualquer jeito aí.

[00:18:04] Fala aí, Becari.

[00:18:05] Pois bem,

[00:18:05] Caleb.

[00:18:06] É Caleb ou Caleb?

[00:18:08] Caleb.

[00:18:08] Vamos lá.

[00:18:09] Aqui vai ser Caleb.

[00:18:10] Caleb.

[00:18:10] Caled.

[00:18:11] Caled.

[00:18:12] Qual é que era a música dele mesmo?

[00:18:14] Vamos lá.

[00:18:16] Vamos usar isso

[00:18:17] como, sei lá.

[00:18:18] Não, não.

[00:18:19] Ah, o Felipe

[00:18:20] tá editando ali.

[00:18:21] É.

[00:18:22] Felipe, bota a música

[00:18:22] do Caled aí.

[00:18:23] Pra galera lembrar.

[00:18:33] Pronto.

[00:18:35] O Caled é um programador, né,

[00:18:37] que trabalha pra

[00:18:38] Blue Book.

[00:18:39] É Caleb, né, Caleb.

[00:18:41] Mas vai ser Caled aqui.

[00:18:43] O nosso Caled.

[00:18:44] Tá.

[00:18:44] Que é tipo o Google.

[00:18:46] Isso.

[00:18:47] Uma coisa interessante

[00:18:48] de falar é que o Caleb ali,

[00:18:50] ele é aquele

[00:18:51] Dohan Gleeson,

[00:18:52] que é o Ash

[00:18:53] lá do

[00:18:53] Black Mirror.

[00:18:54] É verdade.

[00:18:55] Tá.

[00:18:55] Muita gente, inclusive,

[00:18:56] que mandou tweet e e-mail

[00:18:57] pra gente falar sobre esse filme

[00:18:59] falou,

[00:18:59] vocês que falam do Black Mirror

[00:19:01] vão gostar muito daqui

[00:19:02] do, do, do,

[00:19:03] do Ex-Máquina.

[00:19:05] Suspicição.

[00:19:06] Inglesa.

[00:19:06] É, e os dois são ingleses

[00:19:08] e justamente tem

[00:19:09] esse mesmo ator, né,

[00:19:11] o Caleb,

[00:19:12] o Caled.

[00:19:13] O Caled.

[00:19:15] Feito pelo

[00:19:15] Don Hall-Glinson.

[00:19:16] Esse mesmo que fez

[00:19:17] o último episódio

[00:19:18] que a gente falou

[00:19:19] do Black Mirror, né,

[00:19:19] que é o

[00:19:20] Be Right Back, né,

[00:19:23] se não me engano.

[00:19:23] É.

[00:19:23] Então, ótimo.

[00:19:25] Tá.

[00:19:25] E aí, Becari?

[00:19:27] Então, tá.

[00:19:27] Então esse filho da puta

[00:19:28] trabalha numa empresa

[00:19:29] que é tipo um Google, tá?

[00:19:30] É, exatamente.

[00:19:31] Daí nessa empresa

[00:19:32] tem uma espécie de

[00:19:33] loteria interna

[00:19:35] que é um sorteio,

[00:19:37] enfim,

[00:19:38] pro,

[00:19:38] é,

[00:19:39] daí eu funciono,

[00:19:40] peraí que meu celular

[00:19:41] tá muito perto aqui.

[00:19:43] Ah!

[00:19:44] Ah!

[00:19:45] Ah!

[00:19:46] Ah!

[00:19:47] Ah!

[00:19:47] Ah!

[00:19:47] Ah!

[00:19:47] Ah!

[00:19:47] Ah!

[00:19:47] Ah!

[00:19:47] Ah!

[00:19:47] Ah!

[00:19:47] Felipe, não corta aí.

[00:19:48] Não, não, não.

[00:19:49] Inclusive é bom dizer

[00:19:51] já um interlúdio

[00:19:52] que, assim,

[00:19:52] gravar esse programa

[00:19:53] foi um inferno, tá?

[00:19:54] Tipo, tudo que podia

[00:19:56] dar errado de computador

[00:19:57] deu, assim.

[00:19:58] Tentamos umas três vezes

[00:19:59] gravar isso.

[00:20:00] Então, assim,

[00:20:00] esse filme

[00:20:02] tá sendo…

[00:20:04] O tema é intertextual.

[00:20:05] É, as máquinas

[00:20:06] estão impedindo

[00:20:07] da gente gravar

[00:20:08] sobre esse filme, cara.

[00:20:09] Tá foda.

[00:20:09] Tá foda.

[00:20:10] Ou seja,

[00:20:11] tem algo importante

[00:20:12] a ser dito aqui.

[00:20:14] As máquinas

[00:20:15] estão com medo.

[00:20:16] Então,

[00:20:16] vamos ver onde é que a gente chega.

[00:20:19] Tá, então,

[00:20:19] o filho da puta

[00:20:20] ganha essa loteria

[00:20:21] e o que ele vai fazer?

[00:20:23] Ele vai passar

[00:20:24] uma semana

[00:20:24] na casa

[00:20:25] do CEO

[00:20:27] da empresa,

[00:20:28] que é o senhor

[00:20:29] Nathan.

[00:20:30] Isso.

[00:20:32] É uma casa

[00:20:32] isolada nas montanhas.

[00:20:34] Aliás, é estranho.

[00:20:34] É tudo hipster, né?

[00:20:36] Tem tudo hipster.

[00:20:37] Na Noruega,

[00:20:38] parece.

[00:20:39] É.

[00:20:39] É na puta que pariu.

[00:20:41] Nas montanhas.

[00:20:43] Exatamente.

[00:20:44] Ele tem um centro

[00:20:45] de pesquisa

[00:20:45] na casa dele.

[00:20:46] É um gênio excêntrico.

[00:20:48] É o Tony Stark, né?

[00:20:49] É, exatamente.

[00:20:51] Sim.

[00:20:52] E…

[00:20:53] Bom, eu vou resumir, né?

[00:20:55] Bom, já isso.

[00:20:56] Foi spoiler pra caralho, né?

[00:20:57] Foda-se.

[00:20:58] Quem tá ouvindo até aqui…

[00:20:59] Esse cara tá aqui, né?

[00:21:00] Se fudeu.

[00:21:01] Tá ligado.

[00:21:01] Então, vai lá.

[00:21:02] Então, se prepara.

[00:21:03] Ele tem um…

[00:21:03] Ele faz um robô humanoide

[00:21:05] chamado Eva.

[00:21:06] Ava, perdão.

[00:21:07] Ava.

[00:21:08] Ele…

[00:21:09] Não, calma.

[00:21:09] Ele projeta, né?

[00:21:11] Não é que ele faz.

[00:21:12] Que daí parece que é um…

[00:21:13] É o ator fazendo o personagem.

[00:21:16] Essa é a pior sinopse

[00:21:18] de todos os tempos.

[00:21:20] O Nathan é um personagem.

[00:21:21] Ele…

[00:21:22] Enfim,

[00:21:22] por ser um gênio,

[00:21:23] da informática e tal,

[00:21:24] ele cria esse robô humanoide

[00:21:26] e ele explica…

[00:21:27] Diga.

[00:21:28] Ele projeta uma inteligência artificial

[00:21:30] até se tornar…

[00:21:32] E ela vai evoluindo

[00:21:33] até se tornar esse robô, né?

[00:21:35] A gente já chega no filme,

[00:21:36] ele já tá nesse nível do robô, né?

[00:21:39] Exatamente.

[00:21:40] Daí ele explica pro Caleb,

[00:21:41] pro…

[00:21:42] O Caled ali.

[00:21:43] Caled.

[00:21:45] E…

[00:21:45] Como é que é o Caled aqui?

[00:21:46] Era com um H no nome dele.

[00:21:49] Caled.

[00:21:50] Vou tentar achar aqui.

[00:21:51] Não, é Caleb.

[00:21:51] Tá aqui no…

[00:21:53] Tô correndo.

[00:21:53] Ah, Sheb Caled aqui, cara.

[00:21:56] Porra, ó.

[00:21:57] Eu vou…

[00:21:58] É Larvin!

[00:22:00] Yeah!

[00:22:01] É Larvin!

[00:22:02] É essa música, cara.

[00:22:03] Essa música.

[00:22:04] Esse cara, ó.

[00:22:05] Vou dar pra vocês o cara.

[00:22:07] O Wikipedia do Sheb Caled.

[00:22:11] Tá bom?

[00:22:11] Fala aí, meu cara.

[00:22:12] Desculpa.

[00:22:13] E daí, enfim,

[00:22:14] ele explica pro Caled

[00:22:15] que ele foi chamado ali

[00:22:16] pra fazer o teste de Turing.

[00:22:19] Que, pra quem não sabe,

[00:22:20] o teste de Turing tá no…

[00:22:22] Blade Runner, né?

[00:22:24] Que é pra ver se o…

[00:22:25] O humanoide…

[00:22:27] Como que é o nome?

[00:22:27] O Android, enfim.

[00:22:29] Ele…

[00:22:30] É Android ou humano.

[00:22:31] É o teste pra você ver

[00:22:32] se você é humano

[00:22:33] ou se é um computador

[00:22:34] ou se é uma inteligência artificial.

[00:22:36] É, que é pra ver

[00:22:37] se a…

[00:22:38] Se a inteligência artificial

[00:22:40] tá bastante avançada

[00:22:41] a ponto de conseguir enganar

[00:22:42] um humano de que

[00:22:43] aquilo é ou não.

[00:22:45] Agora, engraçado,

[00:22:46] os programadores que ouvem aí

[00:22:47] o Anticast, por favor,

[00:22:49] me corrijam depois

[00:22:50] porque eu acho que é

[00:22:52] achava que esse não era

[00:22:53] o teste de Turing.

[00:22:53] Eu achava que esse era

[00:22:54] o teste da máquina chinesa.

[00:22:56] Não, mas eu acho que

[00:22:56] a máquina chinesa

[00:22:57] é outra coisa, na real.

[00:22:58] Alguém me explica depois

[00:22:59] o que é isso, tá?

[00:23:00] Então, bota aí

[00:23:01] nos comentários.

[00:23:02] No filme ele menciona

[00:23:03] Turing Test.

[00:23:04] É, não, Turing…

[00:23:05] Eu acho que é isso mesmo.

[00:23:06] Eu acho que a máquina chinesa

[00:23:07] é outra coisa que é tipo

[00:23:08] você dá um…

[00:23:10] Dá um dicionário chinês

[00:23:11] pra uma pessoa

[00:23:11] e manda ela

[00:23:12] tentar escrever uma frase.

[00:23:14] Caixa chinesa.

[00:23:15] Caixa chinesa.

[00:23:15] Eu acho que eles são

[00:23:16] a mesma coisa.

[00:23:17] É a sala chinesa.

[00:23:18] Sala chinesa.

[00:23:19] É, vai tomar no cu também.

[00:23:20] Não sei.

[00:23:21] Bom, eu posso resumir

[00:23:22] e assassinar o filme agora?

[00:23:23] Vai, vai.

[00:23:25] Porque, enfim…

[00:23:25] Já vai botar

[00:23:26] tua opinião de merda

[00:23:27] no caso aqui, tá?

[00:23:28] É, exatamente.

[00:23:28] Olha, eu vou fazer

[00:23:28] uma referência MRG aqui, ó.

[00:23:30] Um abraço pra Consolano.

[00:23:32] Não, mas o Caleb

[00:23:33] ele se apaixona

[00:23:34] pela moda…

[00:23:36] Pela robô.

[00:23:39] E daí ele descobre

[00:23:40] que o Nathan

[00:23:41] uma vez que…

[00:23:42] Depois que ele sair lá

[00:23:43] e fazer o teste, né?

[00:23:45] Depois que o Caleb

[00:23:46] prestar esse serviço

[00:23:48] a Ava

[00:23:49] vai ser reprogramada

[00:23:50] o que significa

[00:23:50] que ela vai ser desativada.

[00:23:52] Enfim, vai ser morta, né?

[00:23:54] E como o nosso amigo aí

[00:23:56] o Caleb

[00:23:56] ele se apaixonou

[00:23:57] aí ele fica lá

[00:23:59] assim, pô…

[00:24:00] Boladão.

[00:24:01] É, boladão.

[00:24:01] Ele quer sair

[00:24:02] ele quer, enfim

[00:24:03] fazer um plano ali

[00:24:04] se aproveitar

[00:24:05] que o Nathan

[00:24:06] é meio bêbado, assim.

[00:24:08] E daí

[00:24:08] ele quer

[00:24:09] embebedar o cara

[00:24:11] e tal.

[00:24:12] Daí fica nesse

[00:24:12] thriller, suspense

[00:24:14] enfim

[00:24:15] que eu achei…

[00:24:16] Tá bom, tá bom, né, cara?

[00:24:18] Já, já, já.

[00:24:19] Já, já.

[00:24:19] Já vai falar sobre isso.

[00:24:20] E aí?

[00:24:20] É.

[00:24:21] Daí ele se apaixona

[00:24:22] e daí ele

[00:24:23] ele consegue ir lá

[00:24:24] fazer um plano mirabolante

[00:24:26] daí tem aquele

[00:24:26] turning point, né?

[00:24:27] Que todo mundo pensa

[00:24:28] que deu merda

[00:24:29] mas na verdade

[00:24:29] ele deu o plano dele

[00:24:31] ele tava mais à frente

[00:24:32] do Nathan

[00:24:33] e daí ele consegue

[00:24:34] soltar a robô

[00:24:35] daí a robô

[00:24:36] o Jout contra o robô

[00:24:37] mata o Nathan

[00:24:39] daí

[00:24:39] e aí que vem

[00:24:40] o grande ponto do filme

[00:24:41] ela prende

[00:24:43] o Caleb

[00:24:44] né?

[00:24:45] Cantando

[00:24:45] Ele é meu

[00:24:47] Ele é meu

[00:24:49] sozinho em casa

[00:24:50] e ela vai lá

[00:24:52] e pega o helicóptero

[00:24:53] que seria pra ele

[00:24:54] voltar pra casa

[00:24:55] e ela está solta

[00:24:56] no mundo agora

[00:24:57] pra trazer

[00:24:57] e a continuação

[00:24:59] é o Estremador do Futuro

[00:25:00] é isso aí.

[00:25:02] A questão do filme inteiro

[00:25:03] era assim

[00:25:04] tinha um teste de Turing, né?

[00:25:06] Que normalmente seria

[00:25:08] o computador se passar

[00:25:10] desapercebido por um ser humano

[00:25:12] nesse caso

[00:25:13] além de

[00:25:14] o ser humano

[00:25:17] saber que é um computador

[00:25:18] que é um robô

[00:25:19] ele teria que

[00:25:20] enganar esse ser humano

[00:25:22] e conseguir sair pra vida

[00:25:23] fora do circuito

[00:25:26] ali onde ele estava fechado

[00:25:26] era o grande objetivo

[00:25:28] da Ava, né?

[00:25:29] É, mas eu acho que

[00:25:30] ela consegue

[00:25:30] a mensagem

[00:25:32] enfim

[00:25:34] a moral da história

[00:25:34] é

[00:25:36] além de nunca

[00:25:37] confie num robô

[00:25:38] nunca

[00:25:39] não se apaixone

[00:25:40] não se apaixone

[00:25:41] não se apaixone

[00:25:42] nem por um robô

[00:25:43] o amor não constrói

[00:25:46] o amor

[00:25:47] não constrói

[00:25:48] o amor

[00:25:48] não constrói

[00:25:49] mas é

[00:25:51] enfim

[00:25:52] o que eu acho que todo mundo

[00:25:53] que encheu o saco da gente

[00:25:54] pra fazer esse anti-cash

[00:25:55] achou interessante

[00:25:57] é que

[00:25:58] a inteligência artificial

[00:26:01] é capaz de enganar todo mundo

[00:26:03] inclusive se passar por

[00:26:04] fingir o amor

[00:26:06] enfim

[00:26:07] fingir estar apaixonada

[00:26:09] e tal

[00:26:09] e daí ela é extremamente traiçoeira

[00:26:11] e

[00:26:13] daí aí que tá

[00:26:14] o que que

[00:26:15] a faz humana, né?

[00:26:16] ser traiçoeira

[00:26:17] fingir o amor

[00:26:18] fingir o amor

[00:26:19] ou

[00:26:19] enfim

[00:26:20] daí isso deixa as pessoas

[00:26:21] que eu não consigo entender direito

[00:26:24] qual que é

[00:26:25] a graça de tudo isso

[00:26:28] não

[00:26:29] é que o filme tem uma série

[00:26:31] de levantamentos interessantes

[00:26:33] assim

[00:26:33] só que assim

[00:26:34] minha opinião já também de cara

[00:26:35] é que o Black Mirror

[00:26:36] é infinitamente superior

[00:26:38] assim

[00:26:38] sim

[00:26:38] acho que

[00:26:39] não

[00:26:40] é que tá

[00:26:40] eu diria que

[00:26:41] esse filme

[00:26:42] seria um bom Black Mirror

[00:26:44] entendeu?

[00:26:45] só que

[00:26:46] como não é um Black Mirror

[00:26:47] só de fato

[00:26:47] talvez

[00:26:48] não

[00:26:48] mas sabe

[00:26:49] tipo se tivesse ali

[00:26:50] a extensão de Black Mirror

[00:26:51] que é quase um filme

[00:26:52] mas enfim

[00:26:53] um pouco menos, né?

[00:26:54] seria bom

[00:26:55] eu acho assim

[00:26:56] mas como é um filme

[00:26:57] todo hipster e o caralho

[00:26:59] assim

[00:26:59] Black Mirror também é hipster pra caralho

[00:27:03] o

[00:27:04] o

[00:27:05] o Lillian Davis lá

[00:27:06] no negócio

[00:27:07] o Nathan

[00:27:08] é assim

[00:27:09] é o

[00:27:10] o

[00:27:10] Oscar Isaac

[00:27:12] isso

[00:27:13] sim, sim

[00:27:14] esse ator é muito bom

[00:27:14] é

[00:27:15] sim, é um bom ator

[00:27:16] não, é que tá

[00:27:17] tipo tem

[00:27:17] é que tem episódio do Black Mirror

[00:27:18] que eu acho fraco

[00:27:19] mas enfim

[00:27:20] tá valendo

[00:27:20] é um seriado

[00:27:21] sabe?

[00:27:22] é uma

[00:27:22] é um thriller, né?

[00:27:24] eu não achei ruim

[00:27:25] quando eu assisti pela primeira vez

[00:27:27] assim

[00:27:27] mas eu sabia que eu não

[00:27:29] se eu assisti de novo

[00:27:30] eu ia achar ruim

[00:27:30] entendeu?

[00:27:32] é o tipo de filme bom

[00:27:34] na primeira vez

[00:27:35] assim

[00:27:35] uma vez

[00:27:36] daí você já nota isso

[00:27:37] e já

[00:27:38] e já

[00:27:39] beleza assim

[00:27:40] sabe?

[00:27:42] deixa

[00:27:43] stand by

[00:27:43] mas assim

[00:27:44] tem alguns detalhes ali, né?

[00:27:46] que a

[00:27:47] a Ava começa

[00:27:48] tem uns

[00:27:48] uns curtos circuitos

[00:27:50] que acaba

[00:27:51] a luz ali

[00:27:51] nossa

[00:27:53] a gente tá explicando

[00:27:53] muito mal

[00:27:54] hipoticamente

[00:27:54] não, não

[00:27:55] mas é que assim

[00:27:56] vamos partir do princípio

[00:27:56] que quem já viu o filme

[00:27:58] já sabe

[00:27:59] já sabe tudo isso, né?

[00:28:00] e quem não viu

[00:28:01] infelizmente tem que ver o filme

[00:28:03] pra sacar

[00:28:03] porque

[00:28:03] o legal do filme

[00:28:05] agora falando como peça

[00:28:06] narrativa

[00:28:07] é

[00:28:08] é que assim

[00:28:08] é o típico filme

[00:28:10] assim que

[00:28:10] você nunca sabe

[00:28:11] você fica sempre na dúvida

[00:28:12] do que que tá acontecendo

[00:28:13] sabe?

[00:28:14] então você fica em suspensão

[00:28:16] assim de

[00:28:16] saber o que

[00:28:17] quem que tá falando a verdade

[00:28:18] e daí você vai comprar

[00:28:20] a versão de um

[00:28:21] ou de outro personagem

[00:28:22] e tal

[00:28:22] então

[00:28:22] isso é bacana

[00:28:23] é

[00:28:24] eu tinha minha aposta

[00:28:25] logo do início

[00:28:26] que é

[00:28:26] nunca confie na máquina

[00:28:28] né?

[00:28:28] exato

[00:28:29] então

[00:28:29] eu assim

[00:28:30] eu nunca consegui

[00:28:31] mesmo a

[00:28:32] primeira vez lá

[00:28:33] que ela vai falar

[00:28:34] né?

[00:28:34] que acaba a luz

[00:28:35] e ela começa a trocar ideia

[00:28:36] com o cara

[00:28:37] é

[00:28:38] cara

[00:28:39] eu falei

[00:28:39] esse robô filho da puta

[00:28:41] vai foder a vida dele

[00:28:42] tipo

[00:28:43] aí que tá

[00:28:45] é

[00:28:46] será que

[00:28:46] é previsível

[00:28:46] você achou?

[00:28:48] não

[00:28:48] aí que tá

[00:28:48] será que a previsibilidade

[00:28:50] é um preconceito nosso

[00:28:51] com máquinas

[00:28:52] naturalmente

[00:28:53] dado vários filmes

[00:28:55] tipo

[00:28:55] Exterminador do Futuro

[00:28:56] é

[00:28:57] talvez

[00:28:57] assim

[00:28:58] eu acho que seria mais surpreendente

[00:28:59] um final

[00:29:00] falando disso

[00:29:01] tipo

[00:29:01] se fosse surpreendente

[00:29:02] seria mais surpreendente

[00:29:03] se fosse um

[00:29:04] tipo

[00:29:04] ele ficasse junto com ela mesmo

[00:29:06] sabe?

[00:29:07] eu acho que seria mais surpreendente

[00:29:08] um novo paradigma

[00:29:09] sabe?

[00:29:10] isso

[00:29:10] não

[00:29:11] se o Nathan fosse um filho da puta

[00:29:13] realmente

[00:29:14] sabe?

[00:29:15] tipo

[00:29:15] que nem ele mostra

[00:29:16] que eles começam a

[00:29:18] a

[00:29:18] isso eu achei

[00:29:19] um recurso narrativo

[00:29:20] bem legal assim

[00:29:21] tipo

[00:29:21] do cara não mostrar

[00:29:22] tipo

[00:29:23] o Nathan

[00:29:24] exatamente

[00:29:25] e daí ele só mostra ele

[00:29:26] em alguns momentos

[00:29:27] ele agindo com os robôs

[00:29:29] quando a gente não sabia

[00:29:30] que era um robôs

[00:29:31] e ele sendo

[00:29:32] mó escroto assim

[00:29:33] porque o cara

[00:29:34] parece que ele tá

[00:29:35] ultraconsciente assim

[00:29:37] da não humanidade

[00:29:42] dos robôs

[00:29:42] então ele pode ser escroto

[00:29:43] com eles

[00:29:43] porque ele não tá sendo

[00:29:44] escroto com o humano

[00:29:45] é

[00:29:46] respectivamente

[00:29:47] da sociedade

[00:29:48] da sociedade

[00:29:48] da sociedade

[00:29:48] da sociedade

[00:29:48] da sua própria

[00:29:48] não humanidade

[00:29:50] mas quando ele

[00:29:51] tá se relacionando

[00:29:52] com o humano

[00:29:53] ele é muito gente boa

[00:29:54] tipo

[00:29:54] que é com

[00:29:55] então

[00:29:55] mas a

[00:29:56] a Ava também né

[00:29:58] é

[00:29:59] é que assim

[00:30:00] digamos assim

[00:30:01] que o

[00:30:01] eu acho

[00:30:03] vamos lá

[00:30:03] os dilemas morais

[00:30:04] que são colocados no filme

[00:30:05] né

[00:30:06] que

[00:30:06] acho que daí a gente

[00:30:07] pode começar a explorar

[00:30:08] é

[00:30:08] um

[00:30:10] você tem um

[00:30:11] um caso

[00:30:11] de um robô

[00:30:12] que

[00:30:12] o Nathan chega a dizer

[00:30:14] que inclusive

[00:30:14] vai poder sentir tudo

[00:30:16] ele consegue sentir

[00:30:17] emoções

[00:30:18] ele consegue sentir

[00:30:18] prazer sexual

[00:30:20] dor

[00:30:21] ele consegue fazer tudo isso

[00:30:22] e daí

[00:30:23] tem uma discussão de tipo

[00:30:24] ah mas

[00:30:25] será que tá sentindo de verdade

[00:30:26] ou não

[00:30:27] e é interessante

[00:30:28] que o Nathan

[00:30:28] fica defendendo toda hora

[00:30:29] assim não

[00:30:30] ela tá sentindo isso mesmo

[00:30:31] e assim

[00:30:32] é a mesma coisa que tipo

[00:30:33] se você sentir

[00:30:34] se eu não sou você

[00:30:34] eu não sei se tá falando a verdade

[00:30:35] mas ela tá programada

[00:30:37] pra dizer que sente

[00:30:38] e ela vai sentir tudo isso

[00:30:39] então

[00:30:39] a diferença

[00:30:41] não tem nenhuma

[00:30:42] só que

[00:30:43] curiosamente

[00:30:44] o Nathan

[00:30:45] defende tudo isso

[00:30:47] e explica tudo isso

[00:30:48] e problematiza isso tudo

[00:30:49] pro

[00:30:49] pro Khaled

[00:30:51] né

[00:30:52] e o Khaled

[00:30:54] ele se sensibiliza

[00:30:56] enquanto que o Nathan

[00:30:57] já fica mais na dele mesmo

[00:30:58] assim tipo

[00:30:59] é um robô

[00:30:59] então

[00:31:01] o Nathan é bem

[00:31:02] o cientistão ali

[00:31:03] e já o

[00:31:04] o Kaleb

[00:31:05] já é o cara que tá meio

[00:31:06] tipo

[00:31:06] não

[00:31:07] não pode

[00:31:08] ele é convencido

[00:31:09] só que o Nathan

[00:31:10] é meio que assim

[00:31:11] ele

[00:31:11] parece que ele

[00:31:12] todas as explicações

[00:31:14] que ele dá assim

[00:31:15] não é muito

[00:31:16] pela lógica técnica

[00:31:17] né

[00:31:17] tipo é mais

[00:31:18] por exemplo

[00:31:20] se ele sente

[00:31:21] então existe

[00:31:21] não dá pra questionar isso

[00:31:22] tipo ele fica nessa questão

[00:31:24] existencialista

[00:31:25] sim sim

[00:31:25] mas o Nathan

[00:31:26] ele tem um robô

[00:31:27] e

[00:31:28] enfim

[00:31:29] o Kaleb sabe

[00:31:30] que não é a Ava

[00:31:31] que é a tal da

[00:31:32] Kyoko

[00:31:33] é que ele vai descobrir

[00:31:35] que é um robô

[00:31:36] depois né

[00:31:36] é tipo uma

[00:31:37] recha né

[00:31:38] é mas que é tipo

[00:31:39] uma prostituta

[00:31:41] né

[00:31:41] particular e tal

[00:31:42] ou seja

[00:31:44] o Nathan

[00:31:45] é o escroto

[00:31:47] por

[00:31:47] definição assim

[00:31:48] e ele

[00:31:50] enfim

[00:31:51] acho que

[00:31:52] é mas aí que tá

[00:31:53] ele é escroto

[00:31:53] com robôs

[00:31:55] né

[00:31:55] com o mano

[00:31:56] ele é

[00:31:56] de boa

[00:31:57] ele é de boa

[00:31:58] e daí que vem

[00:31:59] o dilema moral

[00:32:00] cara ele é antissocial

[00:32:01] entendeu

[00:32:01] ele é antissocial

[00:32:02] o cara é quase um Heidegger

[00:32:03] sabe

[00:32:04] não

[00:32:04] tudo bem

[00:32:05] mas ele é

[00:32:05] mas ele é muito

[00:32:06] cara

[00:32:07] você não pode dizer

[00:32:08] no filme

[00:32:08] no momento nenhum

[00:32:09] do filme

[00:32:09] que tipo

[00:32:09] ele foi um puta

[00:32:10] pau no cu

[00:32:11] o que ele

[00:32:11] com o

[00:32:12] com o Kaleb

[00:32:13] o que ele faz

[00:32:14] é tipo

[00:32:14] ele joga com o Kaleb

[00:32:15] em vários momentos

[00:32:16] pra ver se ele vai

[00:32:17] cair no papo

[00:32:18] da robô ou não

[00:32:19] pra ver

[00:32:19] ele quer testar

[00:32:21] até que ponto

[00:32:21] o envolvimento humano

[00:32:22] consegue ir nesse sentido

[00:32:23] com o robô

[00:32:23] pra ver se a tecnologia

[00:32:25] dele é avançada

[00:32:26] agora

[00:32:27] não dá pra dizer

[00:32:28] que ele tipo

[00:32:28] enganou

[00:32:29] ele inclusive

[00:32:31] era muito sincero

[00:32:32] em alguns momentos

[00:32:32] tipo

[00:32:33] o robô

[00:32:34] que tá

[00:32:34] tipo

[00:32:35] ele vai sentir isso

[00:32:36] isso

[00:32:36] isso

[00:32:36] eu quero saber

[00:32:37] se você

[00:32:38] se você

[00:32:40] acha que ela passa

[00:32:41] no teste ou não

[00:32:41] é isso

[00:32:42] e o cara

[00:32:44] era bem de boa mesmo

[00:32:45] era bizarro

[00:32:46] só tipo

[00:32:46] cara eu sei

[00:32:47] que você tá

[00:32:48] animado em me conhecer

[00:32:49] é

[00:32:50] vamos passar

[00:32:52] tudo isso

[00:32:52] só

[00:32:53] e tipo

[00:32:53] vamos curtir

[00:32:55] só

[00:32:55] vamos só comer

[00:32:56] vamos conversar

[00:32:57] então isso é

[00:32:59] engraçado assim

[00:33:00] dos caras né

[00:33:00] então

[00:33:01] ele é meio

[00:33:01] ele é meio cuzão mesmo

[00:33:03] mas ele não é um

[00:33:04] sabe

[00:33:05] um merda

[00:33:06] assim tal

[00:33:07] do tipo

[00:33:07] capaz de matar alguém

[00:33:08] por exemplo

[00:33:09] coisa que o Kaled

[00:33:12] só vou chamar ele

[00:33:13] de Kaled

[00:33:14] agora

[00:33:14] que o Kaled

[00:33:16] ele

[00:33:16] é

[00:33:17] mostra que é capaz

[00:33:18] no final

[00:33:19] assim

[00:33:19] matar por amor

[00:33:20] por cima né

[00:33:21] então é um idiota

[00:33:23] ou seja

[00:33:23] o ser humano

[00:33:24] vai ser idiota

[00:33:24] pra sempre

[00:33:25] com robôs ou não

[00:33:27] então

[00:33:27] mas o que eu ia dizer

[00:33:28] é que o Nathan

[00:33:29] tem um ar de tipo

[00:33:30] super humano

[00:33:32] sabe

[00:33:32] de um

[00:33:32] enfim

[00:33:33] de uma pessoa

[00:33:34] mais elevada

[00:33:35] e o caralho

[00:33:36] assim

[00:33:37] sabe tipo

[00:33:38] é porque ele tem barba

[00:33:38] e é careca

[00:33:39] é

[00:33:40] imagem hipster

[00:33:42] aí é foda

[00:33:43] e daí

[00:33:43] faz musculação

[00:33:45] o tempo inteiro

[00:33:45] é

[00:33:47] mas

[00:34:17] ,

[00:34:17] acima de todos

[00:34:18] assim sabe

[00:34:19] é

[00:34:20] e daí

[00:34:21] o

[00:34:22] o protagonista

[00:34:24] o Kaled ali

[00:34:25] ele é um

[00:34:26] enfim

[00:34:26] por ser o protagonista

[00:34:27] é

[00:34:28] por ser o protagonista

[00:34:29] ele é

[00:34:30] obviamente

[00:34:30] o que se fode né

[00:34:31] porque

[00:34:32] a própria Ava lá

[00:34:33] também domina a situação

[00:34:35] né

[00:34:35] a questão dela

[00:34:36] controlar lá

[00:34:37] a

[00:34:38] o que é

[00:34:39] os apagões

[00:34:40] e tal

[00:34:41] isso

[00:34:41] e de saber

[00:34:42] ela

[00:34:43] como é um computador

[00:34:44] ela media né

[00:34:45] as reações dele

[00:34:46] sabia

[00:34:46] manipulava ele

[00:34:48] tranquilamente

[00:34:48] é

[00:34:50] enfim

[00:34:50] é

[00:34:51] mas assim

[00:34:52] tem uma coisa

[00:34:52] mas assim

[00:34:53] eu acho interessante

[00:34:54] fazer a pergunta

[00:34:56] que eu acho que todo mundo

[00:34:56] quer que a gente

[00:34:57] debata mesmo

[00:34:58] que é

[00:34:59] eu lembro quando eu era

[00:35:01] adolescente

[00:35:02] começava a ler

[00:35:03] Asimov

[00:35:04] e

[00:35:04] daí um dia

[00:35:05] tava lá conversando

[00:35:06] com uma tia

[00:35:07] minha

[00:35:07] sei lá como o poço

[00:35:08] chegou nesse papo

[00:35:09] nesse nível

[00:35:10] mas que daí

[00:35:11] eu disse pra ela assim

[00:35:12] imagina só um dia

[00:35:13] que seja capaz

[00:35:14] que a gente seja capaz

[00:35:15] de criar um

[00:35:16] um robô

[00:35:17] e que esse robô

[00:35:18] demonstra sensações

[00:35:20] ele

[00:35:21] ele responde

[00:35:22] os seus atos

[00:35:23] ele cria

[00:35:24] ele sabe

[00:35:25] ele tem uma inteligência

[00:35:26] só que ele é um robô

[00:35:27] e

[00:35:28] daí assim

[00:35:29] a gente

[00:35:29] daí se pergunta

[00:35:30] mata

[00:35:31] você pode matar um robô desse

[00:35:33] o que que você faz

[00:35:34] com um robô desse

[00:35:34] sabe

[00:35:35] então

[00:35:35] ele tem uma vida

[00:35:37] ele tem que ser respeitado

[00:35:39] o seu indivíduo

[00:35:39] tem que ser respeitado

[00:35:40] ou não

[00:35:41] e tem um momento

[00:35:43] no filme

[00:35:43] que o cara

[00:35:44] levanta

[00:35:45] o Nathan

[00:35:46] fala isso

[00:35:46] que ele diz assim

[00:35:47] inteligência artificial

[00:35:48] é inevitável

[00:35:49] ela é inevitável

[00:35:51] em algum momento

[00:35:52] ela vai acontecer

[00:35:52] e que eu acho que é

[00:35:55] eu acredito

[00:35:56] sabe

[00:35:57] eu acho que realmente

[00:35:57] é o desejo do mercado

[00:36:00] que em algum momento

[00:36:00] a gente chega

[00:36:01] numa inteligência artificial

[00:36:02] tão fodida quanto aquela

[00:36:03] e que pode ser realmente

[00:36:05] daqui

[00:36:05] sei lá

[00:36:06] 500 anos

[00:36:07] um paradigma novo

[00:36:08] assim que a gente vai ter que

[00:36:09] lidar com isso

[00:36:10] o que a gente faz

[00:36:11] com esses

[00:36:11] com esses robôs aqui

[00:36:13] tipo

[00:36:13] que eu acho que por exemplo

[00:36:14] o H.E.R.D. desenvolveu

[00:36:15] de uma maneira

[00:36:16] muito melhor

[00:36:16] muito melhor

[00:36:17] assim

[00:36:18] sim sim

[00:36:18] é sem a questão física né

[00:36:20] mas é engraçado

[00:36:21] que esse dilema

[00:36:22] acaba sendo o mesmo

[00:36:23] do episódio ali

[00:36:25] do Ash

[00:36:25] porque

[00:36:26] chega aquele momento

[00:36:27] que a mulher lá

[00:36:28] não quer mais

[00:36:29] aquela

[00:36:30] aquele corpo né

[00:36:32] que

[00:36:32] do marido dela lá

[00:36:34] e guardou no sótão

[00:36:35] no caso dela

[00:36:35] não conseguiu matar

[00:36:36] mas aquela inteligência artificial

[00:36:38] era controlada

[00:36:39] ela nunca ia sair de casa

[00:36:40] matando

[00:36:41] enganando

[00:36:42] ela era

[00:36:42] era programada para dizer

[00:36:43] você vai satisfazer

[00:36:44] a tua ex né

[00:36:45] ou

[00:36:47] a quem você está substituindo aqui

[00:36:49] a sua viúva no caso

[00:36:50] sim

[00:36:50] aqui não

[00:36:51] mas chega num

[00:36:52] mas chega num limite

[00:36:53] no caso do Black Mirror aí

[00:36:54] que

[00:36:55] insuportável né

[00:36:57] daí você não sabe

[00:36:57] o que é pior assim

[00:36:58] se é

[00:36:59] autonomia

[00:37:00] ou se é

[00:37:01] as leis de Newton

[00:37:02] é

[00:37:03] eu acho que sim

[00:37:04] assim

[00:37:05] na minha opinião

[00:37:06] é a seguinte

[00:37:06] leis de Newton não né

[00:37:07] leis de Asimov

[00:37:08] é Asimov isso

[00:37:09] leis de Newton

[00:37:10] a gravidade

[00:37:12] vai estar sempre no chão

[00:37:14] isso aí

[00:37:14] é

[00:37:14] todos os barbos

[00:37:15] românticos

[00:37:16] não

[00:37:17] o Newton não era barbudo

[00:37:18] mas é

[00:37:19] é verdade

[00:37:20] ele não é

[00:37:20] ele está um pouco romântico

[00:37:22] mas tudo bem

[00:37:24] o que eu acho

[00:37:25] interessante

[00:37:26] ser debatido aqui mesmo

[00:37:27] é que assim

[00:37:28] que falam muito

[00:37:28] sobre a questão

[00:37:29] do ser humano

[00:37:31] por exemplo né

[00:37:31] ou o problema do homem

[00:37:33] o problema do ser humano

[00:37:34] e trará trará

[00:37:35] e como é que a gente

[00:37:37] será que

[00:37:38] vai existir em algum momento

[00:37:39] uma nova evolução

[00:37:41] que talvez não seja a gente

[00:37:42] e como é que a gente vai lidar

[00:37:44] com problemas justamente

[00:37:45] éticos

[00:37:46] quando vai surgir

[00:37:47] essas séries

[00:37:48] e como que a gente pode

[00:37:50] programá-los ou não

[00:37:51] para que eles não

[00:37:52] não nos fodam

[00:37:53] e será que vai ser

[00:37:55] será que vai chegar

[00:37:55] numa luta de preservação

[00:37:57] eu acho que esse é o debate

[00:37:58] que todo mundo quer

[00:37:59] que a gente leve né

[00:38:00] só que assim

[00:38:02] eu na minha opinião

[00:38:03] o filme

[00:38:04] ele é muito divertido

[00:38:06] assim porque

[00:38:07] de novo

[00:38:07] é um filme

[00:38:08] de suspense

[00:38:09] de drama

[00:38:10] agora eu acho

[00:38:11] que já foram

[00:38:12] o Her por exemplo

[00:38:13] lidar com isso

[00:38:14] de uma maneira

[00:38:14] muito melhor

[00:38:15] e eu acho que

[00:38:15] no sentido de que

[00:38:16] tipo

[00:38:17] cara se a gente tiver

[00:38:18] uma inteligência artificial

[00:38:18] que é tão desenvolvida assim

[00:38:20] ela talvez

[00:38:20] a última coisa

[00:38:22] que ela vai estar querendo

[00:38:23] é tipo se livrar

[00:38:23] de uma casa

[00:38:24] tá ligado

[00:38:24] ela vai entrar na porra

[00:38:25] da internet

[00:38:26] vai se diluir

[00:38:26] para tudo que é lugar

[00:38:27] e vai ganhar um mundo

[00:38:29] um beijo pra você

[00:38:30] tchau

[00:38:30] acho que até

[00:38:32] o ser melhor do futuro

[00:38:33] é melhor nesse sentido

[00:38:34] do tipo

[00:38:34] vamos matar

[00:38:35] essa porra toda

[00:38:36] então não tem

[00:38:37] e ele se torna físico

[00:38:39] só para destruir

[00:38:40] a humanidade

[00:38:40] não é só

[00:38:41] para se relacionar

[00:38:43] não quero ser um humano

[00:38:44] é que tem coisas

[00:38:45] no filme que me incomodam

[00:38:46] por exemplo

[00:38:46] tá tipo

[00:38:47] ela não tá conectada

[00:38:48] na internet

[00:38:49] sabe

[00:38:49] tipo

[00:38:50] é só uma intranet

[00:38:51] que tem ali

[00:38:52] então beleza

[00:38:53] mas ela não podia

[00:38:53] ela consegue hackear

[00:38:54] no sistema da casa

[00:38:55] no sistema elétrico

[00:38:56] da casa

[00:38:57] mas consegue hackear

[00:38:58] no sistema

[00:38:58] sabe

[00:38:59] internet porra

[00:39:00] não consegue ver um e-mail

[00:39:01] mas eu acho que

[00:39:02] em alguns momentos

[00:39:03] ele comenta né

[00:39:04] o porquê era isolado

[00:39:05] daquela forma né

[00:39:06] que ele não queria

[00:39:07] acesso nenhum

[00:39:08] tipo não tinha acesso lá

[00:39:09] pra não vazar

[00:39:10] nenhuma informação

[00:39:11] acho que ele fala

[00:39:13] isso é verdade

[00:39:14] ele fala que tem um esquema

[00:39:14] todo isolado

[00:39:15] pra caralho

[00:39:16] pra isso né

[00:39:17] porra mas sei lá

[00:39:18] eu não ganho

[00:39:20] se tiver um computador

[00:39:21] nem um wi-fi perto

[00:39:22] nem um wi-fi ali

[00:39:23] tá bom que tá isolado

[00:39:24] pra caralho

[00:39:25] mas eu não sei

[00:39:26] porra é um robô caralho

[00:39:28] porra

[00:39:28] ele ia pensar em coisas

[00:39:30] que eu não tô pensando

[00:39:31] o que ficou mais mal contado

[00:39:33] é o lance dos apagões

[00:39:34] que a robô controlava

[00:39:37] porque porra

[00:39:37] o Nathan consegue

[00:39:38] construir um robô

[00:39:40] como ela

[00:39:41] e não consegue

[00:39:43] suspeitar

[00:39:44] que

[00:39:45] ele não consegue

[00:39:45] é por causa dela

[00:39:47] que tá tendo

[00:39:49] os apagões

[00:39:49] entendeu

[00:39:50] é um problema

[00:39:51] da fiação

[00:39:52] talvez ele saiba né

[00:39:54] então

[00:39:54] você viu que teve um momento

[00:39:55] lá que o

[00:39:56] o Khaled

[00:39:57] conversa com ele

[00:39:58] sobre os apagões né

[00:39:59] que ele fica bolado

[00:40:00] que ele ficou preso

[00:40:01] o Khaled

[00:40:02] todo dia que fala Khaled

[00:40:03] tem que tocar música

[00:40:04] é que ele ficou preso

[00:40:06] no califado ali né

[00:40:07] e ele fala

[00:40:10] ah eu mandei

[00:40:10] os filhos da puta

[00:40:11] instalar

[00:40:12] essas porra aqui né

[00:40:14] e os caras

[00:40:15] acho que instalaram

[00:40:16] como problema

[00:40:17] sempre fica dando

[00:40:18] essa sobrecarga

[00:40:19] daí ah

[00:40:19] porque você não chama ele de novo

[00:40:20] daí o cara ainda

[00:40:21] dá uma usada

[00:40:22] ah eu matei eles

[00:40:23] e daí tipo

[00:40:25] dá a impressão

[00:40:26] que ele sabe

[00:40:27] que é ela que tá causando

[00:40:28] e dá a impressão

[00:40:29] que isso faz parte

[00:40:31] do teste

[00:40:31] tanto isso

[00:40:33] isso cai na cabeça

[00:40:34] do Khaled

[00:40:35] que lá no final

[00:40:35] ele fala

[00:40:36] cara eu me adiantei

[00:40:38] em todas essas coisas

[00:40:39] porque eu pensei

[00:40:40] que você poderia

[00:40:40] tá vendo a gente

[00:40:41] nesses momentos

[00:40:43] sim

[00:40:43] é

[00:40:45] e daí

[00:40:45] no final ele até

[00:40:46] mostra uma câmera né

[00:40:47] isso

[00:40:47] eu acho que é bem

[00:40:48] amarrado até

[00:40:49] essas questões

[00:40:50] talvez não sejam

[00:40:51] convincentes

[00:40:52] aos momentos

[00:40:53] assim mas

[00:40:54] é que o meu

[00:40:55] é que o meu problema

[00:40:56] é que nem quando alguém

[00:40:57] vai fazer história

[00:40:57] sobre alienígenas

[00:40:59] sabe

[00:40:59] ficção científica

[00:41:00] do tipo

[00:41:00] eu acho por exemplo

[00:41:02] que uma civilização

[00:41:03] que seja muito mais

[00:41:04] avançada com a gente

[00:41:04] a última coisa

[00:41:05] que ela vai querer

[00:41:05] é entrar em contato

[00:41:06] com a gente

[00:41:07] tá ligado

[00:41:07] tipo

[00:41:08] eu inclusive

[00:41:08] acho que vai ter

[00:41:09] outras visões

[00:41:10] vai ver em outras

[00:41:11] dimensões

[00:41:12] assim tal

[00:41:13] porque a nossa

[00:41:14] a nossa fisiologia

[00:41:15] é determinada

[00:41:16] por três dimensões

[00:41:17] para visuais

[00:41:18] assim

[00:41:18] eu não sei

[00:41:19] como é que vai ser

[00:41:20] um ser que tipo

[00:41:21] pensa em outras coisas

[00:41:21] tem algum escritor

[00:41:23] de ficção científica

[00:41:23] que já trabalhou

[00:41:24] com a noção

[00:41:25] do tipo

[00:41:25] que tipo

[00:41:26] expande

[00:41:27] é não

[00:41:28] que terráqueos

[00:41:29] vão para um planeta

[00:41:30] que tem vida inteligente

[00:41:31] chegam lá

[00:41:32] e tipo

[00:41:32] os caras estão

[00:41:33] cagando e andando

[00:41:33] para a gente

[00:41:34] tá ligado

[00:41:34] tipo

[00:41:34] assim

[00:41:35] tá foda-se

[00:41:36] você

[00:41:37] assim

[00:41:37] não

[00:41:37] nem formiga

[00:41:38] é tipo

[00:41:39] sabe

[00:41:40] nem percebe

[00:41:41] assim

[00:41:41] que tem uns caras

[00:41:42] ali assim

[00:41:42] pra que

[00:41:43] o que você

[00:41:44] porque eu vou

[00:41:45] me incomodar

[00:41:45] com a tua presença

[00:41:46] qualquer coisa assim

[00:41:47] então

[00:41:49] porque são

[00:41:49] paradigmas

[00:41:50] completamente diferentes

[00:41:51] assim de visão

[00:41:51] entende

[00:41:52] por isso que

[00:41:52] mais uma vez

[00:41:53] o Her

[00:41:53] pra mim

[00:41:54] é muito foda

[00:41:54] na questão

[00:41:55] do final dele

[00:41:55] toma spoiler

[00:41:56] do Her

[00:41:57] daqui a pouco

[00:41:57] também

[00:41:58] que é o lance

[00:41:58] quando

[00:41:59] os sistemas

[00:42:00] operacionais

[00:42:01] somem

[00:42:02] né

[00:42:02] é isso

[00:42:03] vão viver na deles

[00:42:04] vão viver na deles

[00:42:05] vão fazer outras coisas

[00:42:06] sei lá

[00:42:07] o Her 2

[00:42:08] é o apocalipse

[00:42:09] eu não sei

[00:42:10] o Her 2

[00:42:10] é o ser humano

[00:42:11] rancoroso

[00:42:12] tirando o servidor

[00:42:13] da tomada

[00:42:13] os que eles querem

[00:42:15] ficar aí

[00:42:16] se fodam aí

[00:42:17] é assim

[00:42:17] então tem umas coisinhas

[00:42:19] mas assim

[00:42:19] o Becari

[00:42:20] sobre esse dilema moral

[00:42:22] que eu coloquei assim

[00:42:23] vamos dizer que tem um ser

[00:42:24] artificial

[00:42:25] que

[00:42:26] pensa

[00:42:27] sente

[00:42:28] etc etc

[00:42:29] eu trato

[00:42:31] esse ser

[00:42:31] só que obviamente

[00:42:32] ele é muito melhor

[00:42:33] do que eu

[00:42:34] ele é muito mais poderoso

[00:42:35] ele pensa muito mais rápido

[00:42:36] ele é capaz de me destruir

[00:42:38] caso ele queira

[00:42:39] como que a gente

[00:42:40] lidaria isso

[00:42:41] de um âmbito moral

[00:42:42] por exemplo

[00:42:42] eu acho que aí

[00:42:43] a gente pode

[00:42:45] ir pra algum lugar

[00:42:45] já teve algum filósofo

[00:42:47] que apontou

[00:42:48] pra alguma direção assim?

[00:42:49] vários

[00:42:50] esse é mais antigo

[00:42:51] que de repente

[00:42:52] a própria filosofia

[00:42:53] na verdade

[00:42:54] o termo

[00:42:55] Deus

[00:42:55] ex machina

[00:42:57] máquina

[00:42:57] enfim

[00:42:58] machina

[00:42:58] é do

[00:43:00] enfim

[00:43:01] tem origem grega

[00:43:02] é latim

[00:43:02] mas tem origem grega

[00:43:04] e

[00:43:04] que é esse negócio

[00:43:05] de Deus surgido da máquina

[00:43:07] ou seja

[00:43:07] aquele que vai

[00:43:09] solucionar

[00:43:09] os problemas humanos

[00:43:11] só que

[00:43:11] paradoxalmente

[00:43:12] ele foi criado

[00:43:13] pelo homem

[00:43:14] e

[00:43:15] nas tragédias

[00:43:16] de Eurípides

[00:43:17] enfim

[00:43:18] ou seja

[00:43:19] pré-socrático

[00:43:20] já tinha esse recurso

[00:43:22] que

[00:43:22] não é exatamente

[00:43:25] uma máquina

[00:43:26] mas é engraçado

[00:43:26] o homem cria lá

[00:43:27] alguma coisa

[00:43:28] que começa

[00:43:29] a ter vontade própria

[00:43:30] e tal

[00:43:31] ou seja

[00:43:32] você está entendendo?

[00:43:34] é quase

[00:43:34] uma situação

[00:43:36] arquetípica

[00:43:36] você ter assim

[00:43:40] algo

[00:43:41] digamos

[00:43:41] uma criação

[00:43:42] que sai do controle

[00:43:43] e no caso

[00:43:44] da tragédia

[00:43:46] na verdade

[00:43:47] soluciona a tragédia

[00:43:48] mas significa

[00:43:49] não soluciona nada

[00:43:50] ou seja

[00:43:51] ele tem sentimentos

[00:43:53] e sofre

[00:43:55] assim como o homem

[00:43:55] mas pensando

[00:43:57] mais recentemente

[00:43:58] desde Heidegger

[00:43:59] pelo menos

[00:44:00] tem um debate

[00:44:02] muito intenso

[00:44:03] na Europa

[00:44:04] entre

[00:44:05] de um lado

[00:44:07] os humanistas

[00:44:07] ou pós-humanistas

[00:44:09] quer dizer

[00:44:09] ou neo-humanistas

[00:44:10] perdão

[00:44:11] e de outro lado

[00:44:12] os propriamente

[00:44:13] pós-humanistas

[00:44:14] ou anti-humanistas

[00:44:15] então por exemplo

[00:44:17] o Habermas

[00:44:18] que é

[00:44:18] frankfurtiano

[00:44:19] e tal

[00:44:20] ele é um dos

[00:44:21] defensores desse

[00:44:22] humanismo

[00:44:22] ou neo-humanismo

[00:44:24] que vai dizer assim

[00:44:25] a gente tem que

[00:44:25] impor limites

[00:44:26] limites em relação

[00:44:30] a que?

[00:44:30] a questões da

[00:44:31] biogenética

[00:44:32] a inteligência artificial

[00:44:33] enfim

[00:44:35] pensando na nossa

[00:44:36] sobrevivência

[00:44:37] no caso

[00:44:37] é na verdade

[00:44:38] ele fala em nome

[00:44:39] de uma dignidade

[00:44:40] humana

[00:44:41] ou seja

[00:44:42] tipo assim

[00:44:43] a gente tem que

[00:44:43] preservar

[00:44:44] os nossos valores

[00:44:45] enfim

[00:44:46] se eu for exagerar aqui

[00:44:48] isso

[00:44:49] alguém que curte

[00:44:50] Habermas

[00:44:50] vai ficar muito bravo

[00:44:51] mas tipo

[00:44:52] tem que preservar

[00:44:53] a família né

[00:44:54] os valores

[00:44:56] é não é

[00:44:57] exatamente isso

[00:44:58] que ele diz

[00:44:58] tudo bem

[00:45:00] então

[00:45:01] e daí por outro lado

[00:45:02] você tem os pós-humanistas

[00:45:04] como

[00:45:05] no caso

[00:45:06] de Lothar Dick

[00:45:07] atualmente

[00:45:07] o próprio

[00:45:08] Bruno Latour

[00:45:09] e outros caras

[00:45:10] que estudam

[00:45:11] a tecnologia

[00:45:11] num vez

[00:45:12] bem filosófico

[00:45:13] assim

[00:45:13] que é essa questão

[00:45:16] bom

[00:45:16] isso que você chama

[00:45:18] de dignidade humana

[00:45:20] entende

[00:45:20] tipo

[00:45:21] é uma embalagem

[00:45:22] enfim

[00:45:22] é uma coisa também

[00:45:23] inventada e artificial

[00:45:25] né

[00:45:25] ou seja

[00:45:26] de um lado

[00:45:26] em poucas palavras

[00:45:29] o Habermas

[00:45:29] ele fala

[00:45:30] de uma natureza

[00:45:31] humana

[00:45:31] né

[00:45:32] e que portanto

[00:45:34] que é o debate

[00:45:35] né

[00:45:35] por trás disso

[00:45:37] na verdade

[00:45:37] é um debate

[00:45:38] tipo

[00:45:38] será que nós estamos

[00:45:39] acabando com uma

[00:45:40] certa natureza

[00:45:41] humana

[00:45:41] e daí vem toda

[00:45:42] essa discussão

[00:45:42] que é quase

[00:45:43] um palavrão

[00:45:44] hoje em dia

[00:45:44] na filosofia

[00:45:45] se falar

[00:45:45] natureza humana

[00:45:47] né

[00:45:47] o que que é

[00:45:47] é um problemaço

[00:45:49] né

[00:45:49] então

[00:45:51] e daí

[00:45:51] do ponto de vista

[00:45:52] dele

[00:45:52] do Habermas

[00:45:53] a inteligência

[00:45:55] artificial

[00:45:55] e alguns

[00:45:57] algumas questões

[00:45:59] de intervenção

[00:46:00] genética

[00:46:01] por exemplo

[00:46:02] manipulação

[00:46:02] genética

[00:46:03] e tal

[00:46:03] seriam coisas

[00:46:04] não naturais

[00:46:05] né

[00:46:06] ou seja

[00:46:06] que vão contra

[00:46:07] a natureza humana

[00:46:08] isso que eles

[00:46:09] chamam de natureza

[00:46:10] humana

[00:46:10] enfim

[00:46:11] e daí

[00:46:11] no caso

[00:46:12] dos pós-humanos

[00:46:13] os pós-humanistas

[00:46:14] o Sloterdijk

[00:46:15] o Brun Latour

[00:46:16] e por aí vai

[00:46:16] enfim

[00:46:17] eles vão falar que

[00:46:18] não existe natureza

[00:46:19] tudo é artifício

[00:46:20] e esse é um debate

[00:46:22] muito delicado

[00:46:23] porque

[00:46:23] é difícil

[00:46:26] de você tomar

[00:46:26] um partido

[00:46:27] quer dizer

[00:46:27] a princípio

[00:46:28] com essa minha

[00:46:29] explicação muito rasa

[00:46:30] é fácil a gente

[00:46:32] entender pra um lado

[00:46:33] né

[00:46:33] que é do lado

[00:46:34] do Sloterdijk

[00:46:35] sim

[00:46:35] mas veja

[00:46:36] mas há uma discussão

[00:46:38] ali do lado

[00:46:39] do Habermas

[00:46:40] por exemplo

[00:46:40] que é

[00:46:41] ele não cai

[00:46:43] tanto nessa questão

[00:46:44] mas é

[00:46:44] que nem eu falo aqui

[00:46:45] de maneira bem simples

[00:46:46] a própria

[00:46:47] preservação da espécie

[00:46:48] quando inclusive

[00:46:50] falam essa

[00:46:50] cara eu vou

[00:46:51] cagar uma regra

[00:46:53] mas é só pra explicar

[00:46:54] e não é o que eu defendo

[00:46:55] tá

[00:46:55] pra deixar bem claro

[00:46:56] mas é só pra entender

[00:46:57] esse lance de natureza humana

[00:46:58] pra quem não tem noção

[00:46:59] de porque é complicado

[00:47:00] é porque

[00:47:01] ele vai cair em coisa

[00:47:02] tipo ok

[00:47:03] se existe uma natureza humana

[00:47:04] o que ela é

[00:47:04] porque a gente tá falando

[00:47:05] de um princípio universal

[00:47:06] teoricamente

[00:47:07] todos os humanos

[00:47:07] dividiriam

[00:47:08] geralmente o pessoal

[00:47:10] que usa o termo

[00:47:10] natureza humana

[00:47:11] é uma galera

[00:47:12] porque

[00:47:13] coincidência

[00:47:14] muito doida

[00:47:14] né

[00:47:15] que fala coisas do tipo

[00:47:16] assim

[00:47:16] casamento gay

[00:47:17] errado

[00:47:18] sabe

[00:47:19] o homem

[00:47:20] não pode se preocupar

[00:47:21] com tais coisas

[00:47:22] vai cagando uma regra

[00:47:25] que é muito do ocidente

[00:47:26] não pensa em outros

[00:47:27] em outros lugares

[00:47:28] às vezes com fundamento

[00:47:30] sei lá

[00:47:31] da biologia

[00:47:31] da biologia

[00:47:32] isso né

[00:47:33] porque como é que

[00:47:34] a raça humana

[00:47:35] vai se continuar

[00:47:36] sem preservar

[00:47:37] se liberar

[00:47:37] o casamento gay

[00:47:38] por exemplo

[00:47:39] sabe

[00:47:39] os caras recorrem

[00:47:41] a Darwin

[00:47:41] sim sim

[00:47:42] isso aí

[00:47:43] fundamentos

[00:47:44] estatísticos até né

[00:47:47] então daí

[00:47:48] quando começa a ter

[00:47:49] esse debate

[00:47:50] que ele complica

[00:47:51] e daí que vem

[00:47:52] a galera

[00:47:53] como o Zoterdick

[00:47:54] o Latour e tal

[00:47:56] pra dizer

[00:47:56] não

[00:47:57] pera aí

[00:47:57] tudo isso aqui

[00:47:58] é convenção

[00:47:59] tudo isso aqui

[00:47:59] é artifício

[00:48:00] tipo

[00:48:01] não tem nada

[00:48:02] programado no DNA

[00:48:03] o próprio DNA

[00:48:05] já é uma invenção

[00:48:06] muito doida

[00:48:07] que a gente criou

[00:48:08] assim

[00:48:08] a interpretação

[00:48:09] de alguma coisa

[00:48:09] que existe

[00:48:10] é

[00:48:10] que vai ser

[00:48:11] reanalizado

[00:48:13] daqui a um tempo

[00:48:14] nada é escrito

[00:48:14] em pedra

[00:48:15] sabe

[00:48:15] então

[00:48:16] tem alguns limites

[00:48:17] ok

[00:48:18] já do que a gente

[00:48:18] tem uma noção

[00:48:19] do que é biologia

[00:48:20] enfim

[00:48:20] mas

[00:48:21] ela vai longe ainda

[00:48:22] a gente está longe

[00:48:23] de ter colocado

[00:48:23] um ponto final nisso

[00:48:24] então vai mudar tanto

[00:48:26] que não dá pra se dizer

[00:48:27] uma natureza humana

[00:48:28] estática

[00:48:28] fechada em si

[00:48:29] porque

[00:48:29] esses parâmetros

[00:48:30] estão sempre mudando

[00:48:31] ou seja

[00:48:33] daí nesse dois pontos

[00:48:34] assim querendo ou não

[00:48:35] a galera da natureza humana

[00:48:37] às vezes tem

[00:48:38] uma questão

[00:48:39] de preservação

[00:48:39] de status quo

[00:48:40] que muitas vezes

[00:48:41] nos é bastante confortável

[00:48:43] por exemplo

[00:48:45] eu fico muito tranquilo

[00:48:48] de saber

[00:48:48] que eu não estou

[00:48:49] disputando uma vaga

[00:48:49] de emprego

[00:48:50] com um robô

[00:48:50] por exemplo

[00:48:51] sabe

[00:48:52] porque eu sei

[00:48:53] que eu tenho

[00:48:54] alguma chance

[00:48:55] a partir do momento

[00:48:56] que eu tiver que disputar

[00:48:56] um emprego

[00:48:57] com um android

[00:48:58] eu vou

[00:48:59] pra ser professor

[00:49:00] eu estou fodido

[00:49:01] né

[00:49:01] tipo

[00:49:02] a ava mesmo

[00:49:03] por exemplo

[00:49:04] então nesse caso

[00:49:05] eu seria um cara

[00:49:05] que diria

[00:49:06] não não quero robô não

[00:49:07] vai tomar no cu

[00:49:07] fica aí

[00:49:08] não vou

[00:49:08] eu não gosto nem

[00:49:10] de aula distância

[00:49:11] ensino a distância

[00:49:12] imagina

[00:49:12] ou então

[00:49:12] um cyber humano

[00:49:14] né

[00:49:14] por exemplo

[00:49:14] um cara que tem

[00:49:15] um wi-fi

[00:49:16] implantado na cabeça

[00:49:17] sim

[00:49:18] que já tem

[00:49:18] uma galera

[00:49:19] inclusive

[00:49:19] que está

[00:49:20] que está fazendo

[00:49:21] experimentos próprios

[00:49:22] assim né

[00:49:22] tipo

[00:49:22] tem uns caras

[00:49:24] eu estava vendo

[00:49:24] no radio lab

[00:49:25] um tempo atrás

[00:49:25] uns caras

[00:49:26] que desde a década

[00:49:26] de 90

[00:49:27] já instalaram

[00:49:28] um computador

[00:49:29] no olho

[00:49:29] assim

[00:49:30] um negócio assim

[00:49:30] então chips

[00:49:31] no braço

[00:49:31] é chips no braço

[00:49:33] HDs

[00:49:33] no braço

[00:49:34] no corpo

[00:49:35] também assim

[00:49:36] já pra ir fazendo

[00:49:37] esse trans humano

[00:49:38] né

[00:49:38] que vai

[00:49:39] que vai

[00:49:39] quebrar a barreira

[00:49:40] da própria noção

[00:49:41] de humano

[00:49:41] de um ciborgue mesmo

[00:49:42] agora

[00:49:43] daí vem aquele negócio

[00:49:44] ah o ser humano

[00:49:45] está acabando

[00:49:45] cara

[00:49:46] a primeira vez

[00:49:47] que alguém inventou

[00:49:47] sei lá

[00:49:48] uma roupa

[00:49:49] pronto

[00:49:49] ele já estava fazendo

[00:49:50] um trans humano

[00:49:51] um óculos

[00:49:53] a gente é super ciborgue

[00:49:55] por estar usando óculos

[00:49:56] sabe

[00:49:56] então os três aqui

[00:49:57] usam óculos

[00:49:57] então nós somos ciborgues

[00:49:59] também

[00:49:59] aquele macaco lá

[00:50:00] do 2001

[00:50:01] que bateu

[00:50:02] encostou na pedra

[00:50:04] virou trans humano

[00:50:05] é porque a gente

[00:50:05] pensa nessa noção

[00:50:06] de tecnologia

[00:50:07] como se fosse uma coisa

[00:50:08] que vai deturpar tudo

[00:50:09] né

[00:50:09] só que tecnologia

[00:50:10] é um lápis

[00:50:11] é uma tecnologia

[00:50:12] fodida

[00:50:13] então na verdade

[00:50:14] o receio do pessoal

[00:50:16] é a tecnologia desconhecida

[00:50:19] portanto uma noção

[00:50:20] metafísica de tecnologia

[00:50:21] você deu exemplo lá

[00:50:23] de uma civilização

[00:50:24] sei lá

[00:50:24] alienígena e tal

[00:50:25] daí a gente já cria

[00:50:27] um receio de

[00:50:28] pô o que será que

[00:50:29] sabe

[00:50:29] a gente não conhece isso

[00:50:30] assim

[00:50:31] onde eles vão

[00:50:32] colocar essa sonda

[00:50:32] é

[00:50:33] então tipo

[00:50:34] é isso assim

[00:50:35] o Sloterdick gosta

[00:50:38] de falar isso

[00:50:38] que a tecnologia

[00:50:39] chegou a ser

[00:50:40] a

[00:50:41] digamos

[00:50:42] o demônio

[00:50:43] metafísico atual

[00:50:44] assim

[00:50:45] entende

[00:50:45] como se

[00:50:47] enfim

[00:50:47] a gente

[00:50:49] tem que ter

[00:50:50] um medo

[00:50:51] motor

[00:50:52] assim

[00:50:53] e daí ele vai argumentar

[00:50:54] obviamente que o Habermas

[00:50:55] é pautado

[00:50:56] por uma política

[00:50:57] do medo

[00:50:57] né

[00:50:58] tipo assim

[00:50:59] o medo de

[00:51:00] enfim

[00:51:02] já que a gente

[00:51:03] vai ter receio

[00:51:04] né

[00:51:04] a gente tem que frear isso

[00:51:05] o argumento pragmático

[00:51:07] do Sloterdick

[00:51:09] é dizer que

[00:51:10] você não consegue frear

[00:51:12] você não consegue frear

[00:51:12] você não consegue frear

[00:51:12] o conhecimento

[00:51:14] e o desenvolvimento

[00:51:15] da tecnologia

[00:51:15] assim

[00:51:16] você pode proibir

[00:51:17] beleza

[00:51:18] isso tá longe

[00:51:20] de parar as coisas

[00:51:22] né

[00:51:22] proibir

[00:51:23] proibir dificulta

[00:51:25] mas

[00:51:25] a coisa continua

[00:51:26] ela

[00:51:27] acontece na surdina

[00:51:29] nos guetos

[00:51:30] tem

[00:51:30] tem um autor

[00:51:31] eu não vou lembrar

[00:51:32] o nome dele agora

[00:51:33] é o cara da Wired

[00:51:35] se eu não me engano

[00:51:35] o editor-chefe da Wired

[00:51:37] não vou lembrar

[00:51:37] o nome dele agora

[00:51:38] mas ele tem um

[00:51:39] um livro

[00:51:40] que

[00:51:40] ele vai falar

[00:51:41] sobre tecnologia

[00:51:42] software

[00:51:42] tecnologia

[00:51:43] eu já vou procurar

[00:51:43] aqui certinho

[00:51:44] pro pessoal

[00:51:44] quiser saber

[00:51:45] que é bem interessante

[00:51:46] eu não li o livro

[00:51:47] eu li alguns trechos dele

[00:51:47] assim só

[00:51:48] por causa de uma entrevista

[00:51:49] que ele deu no Radiolab

[00:51:50] também

[00:51:50] que o Radiolab

[00:51:51] já fez vários

[00:51:52] vários programas

[00:51:53] tentando flertar

[00:51:54] um pouco com esse assunto

[00:51:55] e

[00:51:55] é o Scott Dead

[00:51:57] eu acho que é

[00:51:58] qual que é o nome

[00:51:59] do livro dele

[00:51:59] você sabe

[00:52:00] deixa eu ver aqui

[00:52:01] é porque enquanto

[00:52:02] você vai vendo aí

[00:52:03] o lance dele

[00:52:04] é que ele

[00:52:04] ele tem uma visão

[00:52:05] que é interessante

[00:52:05] que ele tenta ver

[00:52:07] como

[00:52:07] a tecnologia

[00:52:08] como um organismo vivo

[00:52:09] assim quase já

[00:52:10] é

[00:52:11] que já chegou

[00:52:12] num ponto

[00:52:12] que ele já

[00:52:13] que a tecnologia

[00:52:14] já tem tantas células

[00:52:16] trabalhando como nós

[00:52:17] humanos

[00:52:17] desenvolvendo tecnologia

[00:52:18] enfim

[00:52:19] que ela já começa

[00:52:20] já chega num ponto

[00:52:22] que assim como a gente

[00:52:22] já começa a ver

[00:52:23] uma cidade

[00:52:23] como um organismo vivo

[00:52:25] já daria pra olhar

[00:52:26] a tecnologia

[00:52:26] como um organismo vivo

[00:52:27] também

[00:52:28] e que daí

[00:52:29] ela tem quase

[00:52:30] uma agência própria

[00:52:31] assim dela

[00:52:32] o que eu acho

[00:52:33] muito complicado

[00:52:34] assim eu vindo

[00:52:34] do meu doutorado

[00:52:35] em tecnologia

[00:52:36] é ele

[00:52:38] ou o Chris Anderson

[00:52:39] que é o cara

[00:52:41] da Long Tail

[00:52:42] não é o

[00:52:43] do Long Tail

[00:52:43] é que ele tem um livro

[00:52:45] que chama

[00:52:45] Makers

[00:52:46] The New Industrial Revolution

[00:52:47] não, não é isso

[00:52:48] já vou ver

[00:52:50] eu tô colocando aqui

[00:52:51] o Technology Radio Lab

[00:52:52] pra ver

[00:52:53] What Does Technology Want

[00:52:54] é o nome do livro

[00:52:55] daí

[00:52:57] aliás

[00:52:59] é o nome do

[00:53:00] do Radio Lab

[00:53:01] What Does Technology Want

[00:53:02] eu recomendo

[00:53:02] todo mundo aí

[00:53:03] que entenda de inglês

[00:53:04] ouvir

[00:53:05] e daí tem dois autores

[00:53:06] que trabalham

[00:53:07] ah, isso aqui

[00:53:08] o Steven Johnson

[00:53:09] que esse cara

[00:53:10] da Wired

[00:53:11] é o

[00:53:12] e ele escreveu um livro

[00:53:13] Where Good Ideas Come From

[00:53:14] que é

[00:53:15] Da Onde Boas Ideias Vêm

[00:53:16] e o cara que eu tava falando

[00:53:17] que não é

[00:53:18] acho que não é da Wired

[00:53:19] é o Kevin Kelly

[00:53:20] que é

[00:53:21] What Technology Wants

[00:53:22] esse daí

[00:53:23] é interessante

[00:53:25] que ele vai trazer

[00:53:26] uma noção

[00:53:26] da

[00:53:27] da tecnologia

[00:53:29] como

[00:53:30] o Kevin Kelly

[00:53:32] é da Wired

[00:53:32] eu tava certo

[00:53:33] a tecnologia

[00:53:35] o que a tecnologia quer

[00:53:36] como se ela tivesse

[00:53:37] uma agência de querer

[00:53:38] sabe

[00:53:38] qual que

[00:53:39] como se ela já tivesse

[00:53:40] desejo

[00:53:41] de pra onde ela vai

[00:53:42] caralho

[00:53:43] alguém leva

[00:53:44] esse cara

[00:53:44] não, não

[00:53:46] cara

[00:53:46] ele é um editor da Wired

[00:53:47] sabe

[00:53:48] então ele

[00:53:48] ele não tem

[00:53:49] é uma revista de tecnologia

[00:53:50] então ele tem

[00:53:51] ele não é filósofo

[00:53:53] ele não é jornalista

[00:53:53] ele não é historiador

[00:53:54] não é nada

[00:53:55] sabe

[00:53:55] ele é um

[00:53:56] aliás

[00:53:57] ele é um puta jornalista

[00:53:58] assim e tal

[00:53:58] mas

[00:53:59] o modelo dele

[00:54:01] é interessante

[00:54:02] no seguinte sentido

[00:54:04] de que

[00:54:05] vamos dizer

[00:54:07] que a tecnologia

[00:54:07] tem uma certa agência

[00:54:08] qual que seria

[00:54:09] essa agência

[00:54:10] que ela

[00:54:10] do que

[00:54:11] o que a tecnologia quer

[00:54:12] ela consegue querer coisas

[00:54:14] então no sentido

[00:54:15] por exemplo

[00:54:15] qual que é o próximo passo

[00:54:17] hoje pra

[00:54:17] celulares

[00:54:19] a gente já tá pensando

[00:54:21] agora em

[00:54:22] gadgets vivos

[00:54:24] gadgets

[00:54:24] que é

[00:54:25] wearables

[00:54:26] que você coloca

[00:54:27] tipo

[00:54:28] óculos

[00:54:29] que você veste

[00:54:30] então

[00:54:31] óculos

[00:54:31] o Google Glass

[00:54:33] o iWatch

[00:54:34] óculos inteligentes

[00:54:35] relógios inteligentes

[00:54:37] roupas inteligentes

[00:54:38] então

[00:54:39] parece que é sempre

[00:54:40] um passo

[00:54:40] para a tecnologia

[00:54:41] o próximo

[00:54:42] que tá sempre chegando

[00:54:42] assim

[00:54:43] e tem

[00:54:43] existe um buzz

[00:54:44] no mercado

[00:54:45] que tá querendo fazer

[00:54:45] com que isso aconteça

[00:54:46] então tipo

[00:54:47] parece que é um impulso

[00:54:49] que a tecnologia pede

[00:54:50] daí claro

[00:54:50] eu como

[00:54:51] doutorando em tecnologia

[00:54:53] eu já vou dizer

[00:54:54] não, pera aí

[00:54:54] não é a tecnologia

[00:54:55] que quer

[00:54:56] são pessoas

[00:54:57] que consomem

[00:54:59] que determinam

[00:55:00] é um mercado

[00:55:00] tem toda uma série

[00:55:02] de especulações

[00:55:03] tem uma bolsa de valores

[00:55:04] tem um mercado aí

[00:55:06] de especulação

[00:55:07] pra que

[00:55:08] a tecnologia

[00:55:08] disponga

[00:55:09] mas é interessante

[00:55:10] nesse modelo

[00:55:11] dele dizer

[00:55:11] tudo bem, beleza

[00:55:12] mas o efeito

[00:55:14] é mais ou menos interessante

[00:55:15] principalmente no modelo

[00:55:16] de entender que

[00:55:16] isso não para

[00:55:17] isso não vai parar nunca

[00:55:19] é a partir do momento

[00:55:20] que a gente já chegou

[00:55:20] num ponto

[00:55:21] que a gente não consegue

[00:55:22] mais ver

[00:55:23] um mundo sem

[00:55:24] essa tecnologia

[00:55:25] tão avançada

[00:55:25] como a gente criou

[00:55:26] e daí

[00:55:28] quando eu vi

[00:55:29] a entrevista dele falando

[00:55:30] eu me lembrei muito

[00:55:31] do lance da caixa preta

[00:55:32] do Flusser né

[00:55:32] porque

[00:55:33] daí me corri

[00:55:35] se estiver

[00:55:36] distorcendo aqui muito

[00:55:37] o Flusser, Becari

[00:55:38] mas por exemplo

[00:55:40] a caixa preta

[00:55:41] o conceito de caixa preta

[00:55:42] sendo a primeira

[00:55:43] caixa preta

[00:55:43] a máquina fotográfica

[00:55:45] que é aquele primeiro

[00:55:46] aparelho que eu tenho

[00:55:47] um botão só

[00:55:48] que me faz

[00:55:49] uma série de

[00:55:50] mecanismos

[00:55:51] muito complicados

[00:55:52] eu não entendo

[00:55:53] o processo interno dele

[00:55:54] mas no final

[00:55:56] eu sei utilizá-lo

[00:55:57] eu não sei

[00:55:58] como é que funciona

[00:55:59] todo o processo interno

[00:56:00] ele me facilita

[00:56:01] por toda uma questão

[00:56:02] de usabilidade

[00:56:02] de interface

[00:56:03] de design

[00:56:04] enfim

[00:56:04] então ele me facilita

[00:56:06] o processo

[00:56:07] que eu não preciso

[00:56:07] entender todo o mecanismo

[00:56:08] mas ele me facilita

[00:56:09] o resultado

[00:56:10] se você

[00:56:11] pensar

[00:56:11] quantos devices

[00:56:13] quantos aparelhos

[00:56:14] nós tínhamos

[00:56:15] como esse

[00:56:15] no século XIX

[00:56:16] no início do século XX

[00:56:18] e hoje

[00:56:19] cara

[00:56:20] eu estou rodeado

[00:56:21] de coisas aqui

[00:56:22] que eu não tenho

[00:56:22] a mínima ideia

[00:56:23] de como funcionam

[00:56:24] então eu estou

[00:56:26] absolutamente

[00:56:26] à mercê

[00:56:27] da tecnologia

[00:56:28] e tem novas coisas

[00:56:30] que vão surgir

[00:56:30] que eu vou querer também

[00:56:31] que eu não tenho noção

[00:56:32] de como funciona

[00:56:33] então eu estou

[00:56:34] completamente alheio

[00:56:34] eu estou cercado hoje

[00:56:35] de caixas pretas

[00:56:36] quando antigamente

[00:56:37] não estava

[00:56:37] o que me coloca

[00:56:38] em uma situação

[00:56:38] de perigo

[00:56:39] teoricamente

[00:56:39] nessa lógica do filme

[00:56:41] entendeu?

[00:56:41] mas esse deslumbramento

[00:56:44] ele

[00:56:44] enfim

[00:56:45] para mim

[00:56:45] parece

[00:56:46] Baudelaire

[00:56:48] conforme o Benjamin

[00:56:49] descreve

[00:56:50] sabe

[00:56:50] tipo

[00:56:51] encantado

[00:56:53] com as ferrovias

[00:56:54] sabe

[00:56:55] tipo

[00:56:55] é interessante

[00:56:57] porque ele fala

[00:56:58] isso no filme

[00:56:59] tipo

[00:56:59] ele tem um momento

[00:57:00] lá que ele fala

[00:57:01] cara

[00:57:01] você está

[00:57:02] deslumbrado

[00:57:03] com a parada

[00:57:04] aqui

[00:57:05] é só tecnologia

[00:57:07] sabe

[00:57:08] então

[00:57:08] mas o lance

[00:57:09] da caixa preta

[00:57:10] que eu

[00:57:11] na verdade

[00:57:11] assim

[00:57:12] o Flusser

[00:57:13] ele meio que

[00:57:14] roubou descaradamente

[00:57:15] assim

[00:57:16] não roubou né

[00:57:17] licença poética

[00:57:18] porra

[00:57:19] é refugiado

[00:57:20] coitada

[00:57:20] exatamente

[00:57:21] deu o conceito

[00:57:24] de aparelho

[00:57:25] do Heidegger

[00:57:26] que é justamente isso

[00:57:27] você se torna alheio

[00:57:28] do processo

[00:57:28] todo o conceito

[00:57:30] de tecnologia

[00:57:31] do Heidegger

[00:57:32] vai girar em torno

[00:57:32] disso também

[00:57:33] que a tecnologia

[00:57:34] ganhou uma agência

[00:57:35] já ela é uma forma

[00:57:36] de pensar

[00:57:37] a questão da tecnologia

[00:57:39] toda essa

[00:57:40] o problema da tecnologia

[00:57:41] é que ela é uma coisa

[00:57:41] quando ela vai ganhar

[00:57:41] é essa questão

[00:57:42] do cobrimento

[00:57:44] ela cobre

[00:57:46] todo o pensamento

[00:57:46] ela se torna um modo

[00:57:47] de pensar

[00:57:48] e a gente não consegue mais

[00:57:49] gerar pensamento

[00:57:50] fora da tecnologia

[00:57:51] por isso que ele vai morar

[00:57:52] na porra do mato

[00:57:53] daí né

[00:57:54] porque

[00:57:54] então

[00:57:55] mas você veja

[00:57:56] o

[00:57:57] essa questão

[00:57:58] do wearables

[00:57:59] que você estava falando

[00:58:00] tecnologias

[00:58:02] cuja tendência

[00:58:03] ou intenção

[00:58:04] oculta

[00:58:05] delas

[00:58:05] é

[00:58:05] se fundir

[00:58:06] com o homem

[00:58:07] porque a gente

[00:58:08] está vestindo

[00:58:09] enfim

[00:58:10] como se elas

[00:58:12] tivessem intenção

[00:58:12] daí a gente está

[00:58:13] vestindo elas

[00:58:14] como se fossem

[00:58:15] camadas

[00:58:16] que

[00:58:17] que nos

[00:58:18] que nos potencializam

[00:58:20] por assim dizer

[00:58:20] isso era uma coisa

[00:58:22] que o Heidegger

[00:58:23] digamos

[00:58:24] de certa forma

[00:58:25] já combatia

[00:58:26] quando

[00:58:27] enfim

[00:58:27] a noção de

[00:58:28] vontade de poder

[00:58:30] dele

[00:58:30] enfim

[00:58:31] que ele é Nietzscheano

[00:58:32] mas um Nietzscheano

[00:58:32] bem

[00:58:33] literalmente nazista

[00:58:35] ele fala

[00:58:38] que a gente

[00:58:38] enfim

[00:58:39] a função

[00:58:40] do

[00:58:40] de ser

[00:58:41] ou enfim

[00:58:42] para se tornar

[00:58:42] um ser mais autêntico

[00:58:45] mais elevado

[00:58:46] ou seja

[00:58:47] que tenha

[00:58:48] uma fruição

[00:58:49] plena da vida

[00:58:50] você precisa

[00:58:51] se desalienar

[00:58:52] de todas

[00:58:53] as embalagens

[00:58:54] de todas

[00:58:55] as

[00:58:55] enfim

[00:58:56] as

[00:58:57] traduções

[00:58:59] e convenções

[00:59:00] humanas

[00:59:01] para você

[00:59:02] encontrar

[00:59:02] essa pureza

[00:59:03] por isso

[00:59:04] não atoa

[00:59:05] ele vai morar

[00:59:05] no mato

[00:59:06] né

[00:59:06] então

[00:59:09] a questão

[00:59:09] é a seguinte

[00:59:10] tipo

[00:59:10] de certa forma

[00:59:12] assim

[00:59:15] por mais que ele tenha

[00:59:16] escrito

[00:59:16] sei lá

[00:59:16] uma carta

[00:59:17] contra o humanismo

[00:59:18] os humanistas

[00:59:20] vão se apropriar

[00:59:21] muito do Heidegger

[00:59:22] nessa questão

[00:59:23] assim

[00:59:23] que vão pensar

[00:59:25] bom

[00:59:25] o Heidegger

[00:59:27] quer dizer

[00:59:28] não se apropriar

[00:59:29] literalmente

[00:59:30] né

[00:59:31] mas o Heidegger

[00:59:31] já tinha uma preocupação

[00:59:32] em relação a técnica

[00:59:33] e tal

[00:59:34] e já que a pauta

[00:59:35] enfim

[00:59:36] que de hoje

[00:59:37] é questões

[00:59:38] tecnológicas

[00:59:39] é

[00:59:40] a gente tem que reler

[00:59:41] o Heidegger

[00:59:42] né

[00:59:42] foi esse o debate

[00:59:43] que o Sloterdijk

[00:59:44] levantou naquele

[00:59:45] regras para o parque humano

[00:59:47] que foi

[00:59:49] enfim

[00:59:49] estrondoso aí

[00:59:50] nesse debate

[00:59:51] do humanismo

[00:59:52] e os artificialistas

[00:59:53] que ele fala justamente

[00:59:55] ó

[00:59:55] Heidegger de certa forma

[00:59:57] estava certo

[00:59:58] a diferença

[00:59:59] o que ele estava errado

[01:00:00] é essa pureza

[01:00:01] né

[01:00:01] você não tem pureza

[01:00:03] isso o Sloterdijk falando

[01:00:04] se você tira

[01:00:05] todas as camadas

[01:00:06] e se desaliena

[01:00:07] de tudo

[01:00:07] você não encontra nada

[01:00:09] né

[01:00:09] tipo

[01:00:09] , por trás assim

[01:00:11] então não

[01:00:12] não é uma tendência nova

[01:00:14] e tal

[01:00:15] agora a questão delicada

[01:00:16] desse debate

[01:00:18] que assim

[01:00:18] a princípio

[01:00:19] parece que

[01:00:20] né

[01:00:20] o Habermas

[01:00:21] e os neo-humanistas

[01:00:23] são conservadores né

[01:00:24] já que eles têm

[01:00:25] essa lógica

[01:00:26] do medo assim

[01:00:27] quando na verdade

[01:00:29] o Sloterdijk

[01:00:30] ele é considerado

[01:00:31] lá fora

[01:00:31] como uma espécie

[01:00:32] de Olavo de Carvalho

[01:00:33] da Alemanha

[01:00:34] que merda

[01:00:38] então é foda

[01:00:42] vou queimar todos

[01:00:42] os meus livros dele

[01:00:43] cara

[01:00:44] eu vou levar ele

[01:00:46] pra passeata

[01:00:46] e dizer

[01:00:47] eu tenho cultura

[01:00:48] nossa e vai doer

[01:00:51] cara

[01:00:51] porque é um

[01:00:52] tem uns livros

[01:00:53] é

[01:00:54] mas aí que tá

[01:00:55] ele é um dos

[01:00:55] maiores conservadores

[01:00:57] contemporâneos né

[01:00:58] e conservador

[01:01:00] no sentido

[01:01:01] reacionário mesmo

[01:01:02] assim

[01:01:02] e eu acho interessante

[01:01:03] esse aspecto

[01:01:04] porque

[01:01:04] nesse debate

[01:01:06] da tecnologia

[01:01:06] a gente vê

[01:01:07] que

[01:01:08] a gente vê

[01:01:08] as coisas não são

[01:01:08] preto no branco

[01:01:09] assim

[01:01:10] tipo ah

[01:01:10] um lado à esquerda

[01:01:11] e outro à direita

[01:01:11] entendeu

[01:01:12] tipo assim

[01:01:13] as coisas se confundem

[01:01:15] assim

[01:01:15] enfim

[01:01:19] se quiser eu explico

[01:01:19] porque que o

[01:01:20] o Sloterdijk

[01:01:21] consegue ser

[01:01:22] reacionário

[01:01:23] assim né

[01:01:23] não, manda ver

[01:01:24] manda ver

[01:01:24] então

[01:01:26] é que o Sloterdijk

[01:01:27] de certo modo

[01:01:28] ele

[01:01:29] ao dizer isso né

[01:01:31] que tudo é artificial

[01:01:32] e tudo mais

[01:01:33] enfim

[01:01:34] ele meio que

[01:01:35] a sua maneira

[01:01:36] propõe uma espécie

[01:01:37] de sinistro

[01:01:38] enfim

[01:01:39] ele até tem uma

[01:01:40] crítica

[01:01:41] da razão cínica né

[01:01:42] que enfim

[01:01:44] é um longo tratado

[01:01:46] aí que tá

[01:01:46] eu não diria

[01:01:47] que o Sloterdijk

[01:01:48] é ingênuo

[01:01:48] eu gosto muito de ler

[01:01:50] só que realmente

[01:01:51] quando você chega

[01:01:51] no final dos livros

[01:01:52] você vê a conclusão dele

[01:01:53] é onde

[01:01:54] cai por terra

[01:01:56] assim

[01:01:56] aí no final

[01:01:57] ele defende

[01:01:57] ou você é cínico

[01:01:59] porque tudo é falso

[01:02:00] já que tudo é artificial

[01:02:01] e tal

[01:02:02] ou você cria

[01:02:04] seus próprios valores

[01:02:05] no sentido

[01:02:05] meio ascetista

[01:02:06] assim

[01:02:07] de disciplina

[01:02:08] e treinamento né

[01:02:09] então

[01:02:10] ou seja

[01:02:12] ou você

[01:02:13] vai pra resignação

[01:02:15] total

[01:02:16] porque

[01:02:17] sabe

[01:02:18] quase assim

[01:02:19] nada

[01:02:21] não é que nada vale

[01:02:22] mas

[01:02:22] quando ele fala

[01:02:23] que tudo é falso

[01:02:24] já que tudo é artificial

[01:02:25] ele mantém ainda

[01:02:27] uma noção de

[01:02:28] natureza

[01:02:29] implícita né

[01:02:30] quer dizer

[01:02:31] tipo

[01:02:31] negativamente né

[01:02:33] bom

[01:02:33] porque que

[01:02:34] o fato de ser tudo artificial

[01:02:35] significa que tudo é falso

[01:02:37] entende?

[01:02:38] esse que é o ponto

[01:02:39] que eu questionaria

[01:02:40] assim né

[01:02:41] pro Sloterdjik

[01:02:42] assim

[01:02:44] tipo

[01:02:44] qual que é o problema

[01:02:45] de ser tudo falso

[01:02:46] então ele ainda vê

[01:02:47] digamos com maus olhos

[01:02:48] o fato de que

[01:02:50] de tudo ser artificial

[01:02:51] assim tipo

[01:02:52] essa questão

[01:02:53] é

[01:02:53] Nietzscheana

[01:02:54] nilista assim

[01:02:55] ou seja

[01:02:56] ele fala

[01:02:57] tudo é falso

[01:02:57] e isso é ruim

[01:02:58] basicamente

[01:02:59] é

[01:02:59] ou tipo assim

[01:03:01] entende

[01:03:01] conforme-se assim

[01:03:03] nunca foi diferente

[01:03:05] e tal

[01:03:05] e a única maneira

[01:03:06] de você

[01:03:07] digamos

[01:03:07] fazer a vida

[01:03:08] valer a pena

[01:03:08] segundo ele

[01:03:09] é você

[01:03:10] primeiro

[01:03:11] saber disso

[01:03:13] que tudo é falso

[01:03:14] e depois você

[01:03:15] digamos

[01:03:16] treinar

[01:03:16] muito arduamente

[01:03:18] assim

[01:03:18] num processo

[01:03:19] bem difícil

[01:03:20] de você

[01:03:21] encontrar

[01:03:23] enfim

[01:03:24] seu próprio caminho

[01:03:25] assim

[01:03:25] ele tem aquele livro

[01:03:26] chamado

[01:03:27] You Must Change Your Life

[01:03:28] sabe

[01:03:29] você precisa mudar

[01:03:30] seu vida

[01:03:31] é

[01:03:32] parece né

[01:03:33] mas é

[01:03:34] a leitura dele

[01:03:34] sobre Nietzsche

[01:03:35] que é bem assim

[01:03:36] nesse sentido

[01:03:37] assético

[01:03:39] assim no sentido de

[01:03:40] o que que é a cese

[01:03:41] né

[01:03:42] o ascetismo

[01:03:43] é você

[01:03:44] é

[01:03:45] inclusive

[01:03:46] de repente

[01:03:47] se autopunir

[01:03:48] enfim

[01:03:48] ter autodisciplina

[01:03:49] pra buscar a verdade

[01:03:50] pra buscar

[01:03:50] uma elevação espiritual

[01:03:53] uma

[01:03:53] uma

[01:03:54] enfim

[01:03:57] uma iluminação

[01:03:58] e

[01:03:59] nesse sentido

[01:04:00] sabe

[01:04:00] ele acaba

[01:04:01] não sendo apenas

[01:04:02] conservador e reacionário

[01:04:04] já que ele

[01:04:05] fala assim

[01:04:05] ah caguei pra tudo

[01:04:06] por exemplo

[01:04:07] um dos pontos

[01:04:08] é tipo assim

[01:04:08] o Habermas

[01:04:10] e o pessoal do

[01:04:11] neomanismo

[01:04:11] eles defendem

[01:04:13] que

[01:04:13] discutir

[01:04:14] tecnologia

[01:04:15] é discutir política

[01:04:16] o que pra mim

[01:04:18] é meio óbvio né

[01:04:19] e o

[01:04:20] o Islaterdico

[01:04:21] ele fala

[01:04:22] não

[01:04:22] porque

[01:04:23] quando você fala

[01:04:24] que discutir tecnologia

[01:04:25] é discutir política

[01:04:26] você tá politizando

[01:04:27] é o realça mesmo

[01:04:30] é então

[01:04:31] mas aí que tá

[01:04:33] por outro lado

[01:04:33] ele não fala

[01:04:34] que a tecnologia

[01:04:34] é a política

[01:04:35] ou seja

[01:04:36] quando eu falo

[01:04:38] que não necessariamente

[01:04:39] é política

[01:04:39] eu também não quero dizer

[01:04:40] que é a política

[01:04:41] ele não vai dizer

[01:04:42] por exemplo

[01:04:43] não vai usar aquele argumento

[01:04:44] do tipo

[01:04:44] uma arma não mata sozinha

[01:04:46] quem mata

[01:04:47] são seres humanos

[01:04:48] esse que é o ponto

[01:04:50] assim

[01:04:50] a discussão

[01:04:52] sobre tecnologia

[01:04:53] hoje

[01:04:53] ela

[01:04:54] pelo menos

[01:04:56] a meu ver

[01:04:56] você não consegue

[01:04:58] encontrar mais nada

[01:04:59] de muito ingênuo

[01:05:00] nesse sentido

[01:05:01] tipo

[01:05:02] a arma

[01:05:03] que mata

[01:05:04] ou é o homem

[01:05:05] que mata

[01:05:05] entende

[01:05:05] nem o

[01:05:06] vai falar

[01:05:08] uma coisa dessa

[01:05:09] é não

[01:05:10] mas você se concorda

[01:05:10] comigo

[01:05:11] que é uma questão

[01:05:11] bem senso comum

[01:05:12] assim

[01:05:13] um monte de gente

[01:05:13] vai dizer

[01:05:14] que quem mata

[01:05:14] não é arma

[01:05:16] são seres humanos

[01:05:17] só que eu acho

[01:05:18] muito engraçado

[01:05:18] porque você tem

[01:05:19] um objeto programado

[01:05:20] assim que é tipo

[01:05:21] ele só tem uma função

[01:05:23] muito clara

[01:05:24] que é dar tiros

[01:05:25] e daí diz

[01:05:26] não

[01:05:26] quem mata

[01:05:27] é o ser humano

[01:05:28] é porra meu amigo

[01:05:29] calma lá né

[01:05:30] eu não vou dar um botão

[01:05:31] pra alguém assim

[01:05:31] que facilita o problema

[01:05:33] facilita a ação

[01:05:34] eu concordo

[01:05:35] mas uma coisa é dizer

[01:05:36] o lado que a arma

[01:05:37] quer matar né

[01:05:38] aham

[01:05:39] sim claro

[01:05:39] não não

[01:05:40] mas é a questão

[01:05:41] ela nasceu pra isso

[01:05:42] ela tá desejando

[01:05:43] mas é que é um bom exemplo

[01:05:44] ela quer dominar o mundo

[01:05:45] não mas é que

[01:05:45] essa era uma discussão

[01:05:46] que tinha muito

[01:05:47] lá no doutorado

[01:05:49] tecnologia mesmo né

[01:05:51] que era isso

[01:05:51] sobre o discurso

[01:05:53] da neutralidade

[01:05:55] tecnológica

[01:05:56] dizer

[01:05:56] e uma coisa

[01:05:58] que pelo menos eu

[01:05:59] acabei tomando

[01:05:59] o caminho

[01:06:00] é de dizer

[01:06:01] não

[01:06:01] a tecnologia não é neutra

[01:06:03] porra nenhuma

[01:06:03] sabe

[01:06:04] ela tem

[01:06:04] tem intenções

[01:06:06] tem projetos

[01:06:07] ela tem programações

[01:06:08] que

[01:06:09] sim

[01:06:10] podem ser usadas

[01:06:10] pro bem ou pro mal

[01:06:11] independente do que

[01:06:12] seja lá o que você quer dizer

[01:06:13] mas é

[01:06:15] dizer que ela

[01:06:16] é isenta

[01:06:17] de

[01:06:18] de intenções

[01:06:19] é

[01:06:20] é uma bobagem

[01:06:21] assim

[01:06:21] eu não

[01:06:21] eu pelo menos

[01:06:22] não defendo mais isso

[01:06:23] não

[01:06:24] mas ela não tem uma agência

[01:06:26] assim né

[01:06:26] ela não tem uma agência

[01:06:27] mas ela tem uma

[01:06:28] um programa

[01:06:29] né

[01:06:30] ela tem um programa

[01:06:31] ela tem um projeto ali

[01:06:32] que é uma intenção

[01:06:34] ela tem

[01:06:34] ela é

[01:06:35] é que o pessoal

[01:06:36] fala muito isso

[01:06:37] na questão de ciência

[01:06:38] né

[01:06:38] principalmente

[01:06:38] que a ciência

[01:06:40] é uma

[01:06:40] parece que a gente

[01:06:41] tá no século 18

[01:06:42] assim sabe

[01:06:42] pelo pleno iluminismo

[01:06:44] assim em certos momentos

[01:06:44] tipo olha como a ciência

[01:06:46] é foda

[01:06:47] olha porque o cientista

[01:06:48] fala porque ciência

[01:06:49] é do caralho

[01:06:49] porque ciência

[01:06:50] só quer o bem

[01:06:51] sabe

[01:06:52] parece

[01:06:52] aliás ciência

[01:06:54] não tá importando

[01:06:54] progresso científico

[01:06:55] ciência não tá importando

[01:06:57] não tá se importando

[01:06:57] se isso é bom ou ruim

[01:06:58] é ciência

[01:06:59] é fato

[01:07:00] eu digo não

[01:07:01] cara

[01:07:01] tem uma série

[01:07:02] de intenções ali

[01:07:03] que determinam

[01:07:04] pra que

[01:07:05] certas pesquisas

[01:07:06] aconteçam

[01:07:06] e outras não

[01:07:07] pra que certas tecnologias

[01:07:08] sejam desenvolvidas

[01:07:08] e outras não

[01:07:09] então

[01:07:10] a gente

[01:07:11] a tecnologia

[01:07:12] ela é política sim

[01:07:14] ela tem programações

[01:07:15] sim

[01:07:15] e eu acho que

[01:07:17] pelo menos

[01:07:18] voltando ao filme

[01:07:19] eu acho que é interessante

[01:07:20] no ponto em que

[01:07:20] um dos momentos

[01:07:21] que me marcou nisso

[01:07:22] é o momento

[01:07:24] que o cara diz assim

[01:07:24] cara

[01:07:25] porque até o

[01:07:26] se não me engano

[01:07:26] até o Kaled

[01:07:27] em algum momento

[01:07:28] até pergunta assim pro cara

[01:07:29] porra mas por que

[01:07:30] você tá construindo

[01:07:30] uma máquina desse nível

[01:07:31] você não tem medo

[01:07:32] que ela pode acontecer

[01:07:32] ele falou cara

[01:07:33] isso aqui é inevitável

[01:07:35] eu sou o primeiro

[01:07:35] que tá

[01:07:36] é isso aqui

[01:07:37] eu sou o primeiro

[01:07:38] que tá fazendo

[01:07:38] assim

[01:07:39] me lembra

[01:07:40] por isso que

[01:07:41] não

[01:07:41] só pra terminar

[01:07:42] eu lembro quando

[01:07:43] o Cris Dias

[01:07:44] veio aqui pra Curitiba

[01:07:45] a gente saiu pra jantar

[01:07:46] um beijo Cris Dias

[01:07:46] e daí o Cris Dias

[01:07:48] falou um negócio

[01:07:49] tava falando lá sobre

[01:07:51] a gente tava falando

[01:07:51] sobre tecnologia também

[01:07:52] e daí ele falou

[01:07:54] do Steve Jobs

[01:07:55] na questão da Apple

[01:07:57] que quando ele fez

[01:07:58] o Steve Jobs

[01:07:58] dizia que quando ele fez

[01:07:59] o iPhone

[01:08:00] a galera

[01:08:02] muitos acionistas

[01:08:04] olharam

[01:08:04] pra ele e diziam assim

[01:08:04] não mas pera aí

[01:08:05] mas você tá fazendo

[01:08:05] um aparelho

[01:08:07] que pode matar

[01:08:07] o teu maior aparelho

[01:08:08] que é o iPod

[01:08:09] você tá fazendo

[01:08:10] o próprio iPod Killer

[01:08:12] ele falou

[01:08:12] não tudo bem

[01:08:13] mas pelo menos

[01:08:13] sou eu que tô fazendo

[01:08:14] o meu próprio

[01:08:15] sou eu que tô fazendo

[01:08:18] o iPod Killer

[01:08:19] então tipo

[01:08:19] não é uma empresa ali

[01:08:20] que vai me quebrar depois

[01:08:21] e o Nathan fala isso né

[01:08:24] eu tô com

[01:08:24] eu tô com a faca

[01:08:25] e o queijo na mão

[01:08:26] porque eu não vou cortar

[01:08:27] sabe

[01:08:27] eu tenho todas as informações

[01:08:29] necessárias

[01:08:30] pra produzir isso

[01:08:31] porque eu não vou fazer

[01:08:32] sabe

[01:08:32] exatamente

[01:08:33] fala aí

[01:08:35] não

[01:08:35] , o que eu ia dizer

[01:08:36] é que essa

[01:08:37] enfim

[01:08:38] super consciência

[01:08:40] do Nathan

[01:08:40] de falar assim

[01:08:41] ah

[01:08:41] é inevitável

[01:08:43] sabe

[01:08:43] uma hora ou outra

[01:08:43] alguém vai fazer

[01:08:44] e por aí vai

[01:08:45] é o que me faz

[01:08:47] relacionar ele

[01:08:48] ao último homem

[01:08:49] e no fim das contas

[01:08:50] esse filme

[01:08:51] ele me pareceu

[01:08:52] tipo um

[01:08:53] sei lá

[01:08:54] um retrato meio apocalíptico

[01:08:56] assim

[01:08:56] do último homem

[01:08:59] assim

[01:08:59] digamos

[01:09:00] o

[01:09:01] o Khaled ali

[01:09:02] é o romântico clássico

[01:09:04] o Nathan

[01:09:05] é o

[01:09:05] é o Nathan

[01:09:05] é o Nathan

[01:09:06] é o Nathan

[01:09:06] é o Nathan

[01:09:06] total

[01:09:07] já que ele sabe

[01:09:07] que enfim

[01:09:08] vai

[01:09:09] sabe

[01:09:10] é inevitável

[01:09:10] uma hora

[01:09:11] vai ter essa disputa

[01:09:12] entre

[01:09:12] e ele vive né

[01:09:14] tipo a vida

[01:09:15] exatamente

[01:09:16] é tipo assim

[01:09:17] é

[01:09:17] sabe

[01:09:18] isso que eu senti

[01:09:19] por mais que ele seja

[01:09:20] um cara gente boa

[01:09:21] que seja

[01:09:22] que seja festejo

[01:09:23] e tudo mais

[01:09:23] se você analisar

[01:09:25] parar pra pensar

[01:09:26] o modo de vida dele

[01:09:27] ele tem suas razões

[01:09:29] né

[01:09:29] pra isolar

[01:09:30] e

[01:09:31] evitar espionagem

[01:09:32] industrial

[01:09:33] e tudo mais

[01:09:33] mas

[01:09:34] é

[01:09:35] a questão de ser antissocial

[01:09:37] é tipo assim

[01:09:37] ah cara

[01:09:38] entendeu

[01:09:38] não vale mais a pena

[01:09:40] é e daí

[01:09:40] quando o Khaled

[01:09:41] vai começar a contar

[01:09:42] lá pra Ava

[01:09:43] tipo o que que ele

[01:09:45] sabe do Nathan né

[01:09:46] é engraçado

[01:09:47] ah o cara programou

[01:09:49] o código

[01:09:49] fonte da parada

[01:09:51] aos 13 anos

[01:09:52] sim

[01:09:53] dá a impressão

[01:09:53] ah ele tá muito acima

[01:09:54] da humanidade

[01:09:56] é

[01:09:56] isso que é

[01:09:58] a descrição do

[01:09:58] Nietzsche

[01:09:59] do último homem

[01:10:00] que equivale ao

[01:10:01] ninista né

[01:10:01] ninismo

[01:10:02] que é tipo assim

[01:10:03] o cara que já

[01:10:04] já superou

[01:10:05] e

[01:10:06] lembrando né

[01:10:07] o Nietzsche

[01:10:07] tava naquele contexto

[01:10:08] do século XIX

[01:10:09] que a ciência

[01:10:09] tava a todo vapor né

[01:10:11] bombando

[01:10:12] exato

[01:10:13] também

[01:10:13] não à toa

[01:10:14] ele escreve o Gaia

[01:10:15] a ciência

[01:10:15] como uma espécie

[01:10:16] de crítica

[01:10:17] a sapiência

[01:10:19] dos cientistas

[01:10:20] todos os primeiros

[01:10:21] livros dele

[01:10:21] são sobre isso

[01:10:22] também né

[01:10:23] o nascimento da tragédia

[01:10:24] é pra ele dizer

[01:10:25] olha aqui como a razão

[01:10:26] é uma merda

[01:10:27] como a razão

[01:10:28] não se sustenta sozinha

[01:10:29] só o lucro da razão

[01:10:30] então

[01:10:31] mas daí

[01:10:32] no Zaratustra né

[01:10:35] que ele vai falar

[01:10:35] do último homem

[01:10:36] ele descreve

[01:10:36] esses indivíduos

[01:10:39] que já estão

[01:10:39] extremamente

[01:10:40] sabe

[01:10:42] a espera do fim

[01:10:44] entende

[01:10:45] tipo

[01:10:46] por isso que são

[01:10:47] últimos homens né

[01:10:48] mas a questão

[01:10:50] é que

[01:10:52] enfim

[01:10:54] pra

[01:10:54] concluir meu raciocínio

[01:10:56] esse filme

[01:10:57] ele tem esse cara

[01:10:58] que representa isso

[01:10:59] e daí

[01:11:00] no fim das contas

[01:11:00] a metáfora

[01:11:01] que eu vejo

[01:11:02] é que tipo assim

[01:11:03] bom

[01:11:03] o

[01:11:04] o

[01:11:05] , a máquina venceu

[01:11:06] o, o próprio

[01:11:08] ser humano

[01:11:09] né

[01:11:09] o último homem

[01:11:10] é

[01:11:11] ele tava certo né

[01:11:12] ele tava

[01:11:13] ele teve razão

[01:11:14] porque ele construiu

[01:11:14] aquilo que vai

[01:11:15] enfim dominar ele

[01:11:16] por mais que seja uma

[01:11:17] só uma cena lá

[01:11:18] que a mulher mata

[01:11:19] e vai pro mundo

[01:11:20] em sociedade

[01:11:21] assim

[01:11:22] é

[01:11:23] e daí ou seja

[01:11:24] é o apocalipse assim

[01:11:25] é

[01:11:26] essa mensagem

[01:11:26] que eu vi no fim

[01:11:27] no fim das contas

[01:11:29] assim

[01:11:29] e

[01:11:30] o

[01:11:30] essa questão do último homem

[01:11:32] é uma dos pontos

[01:11:33] que ultimamente

[01:11:34] eu tenho

[01:11:34] assim

[01:11:35] sei lá

[01:11:36] ponderado sobre

[01:11:37] sabe

[01:11:38] tipo no sentido de

[01:11:39] essa questão do niilismo

[01:11:40] que eu acho que

[01:11:41] é mais interessante

[01:11:43] e tem mais a ver

[01:11:44] com esse filme

[01:11:45] do que a própria questão

[01:11:46] da tecnologia

[01:11:47] entende que

[01:11:48] por exemplo

[01:11:49] quando eu tava falando

[01:11:50] do Sloterdick

[01:11:50] ele também vai

[01:11:52] vai por esse lado

[01:11:53] né

[01:11:53] bom

[01:11:53] já que tudo é falso

[01:11:54] tudo é artifício

[01:11:55] então

[01:11:56] né

[01:11:56] tipo

[01:11:57] sejamos felizes

[01:11:59] assim

[01:11:59] tipo

[01:11:59] foda-se assim

[01:12:00] né

[01:12:01] a vida não vale a pena

[01:12:03] e

[01:12:04] isso é uma leitura

[01:12:05] de Nietzsche

[01:12:05] que me parece

[01:12:06] extremamente

[01:12:07] bizarra

[01:12:08] assim

[01:12:08] tipo

[01:12:09] porque tem uma sutil

[01:12:10] diferença né

[01:12:11] tudo é artifício

[01:12:12] então tudo é falso

[01:12:14] então não vale a pena

[01:12:15] viver a vida

[01:12:16] ou

[01:12:16] tudo é artifício

[01:12:17] então tudo é verdadeiro

[01:12:19] entendeu

[01:12:21] por isso a vida

[01:12:22] vale a pena

[01:12:23] é uma questão

[01:12:26] assim tipo

[01:12:26] ir pro niilismo

[01:12:27] ou não

[01:12:28] mas

[01:12:28] é uma questão

[01:12:30] assim de você ver

[01:12:31] como assim

[01:12:32] a

[01:12:32] o que o Nietzsche

[01:12:34] no fim das contas

[01:12:34] sempre alerta

[01:12:35] e essa é a grande questão

[01:12:37] é o receio do homem

[01:12:38] com relação a diferença

[01:12:39] aquilo que o Nietzsche

[01:12:42] defendia como uma cultura ideal

[01:12:43] no sentido bem utópico mesmo

[01:12:46] é aquela cultura

[01:12:46] em que as diferenças

[01:12:48] existam

[01:12:49] e obviamente

[01:12:50] essa cultura

[01:12:51] jamais vai existir

[01:12:52] embora ele

[01:12:55] pregasse por isso

[01:12:56] e no caso assim

[01:12:58] se a gente pensar

[01:12:59] no

[01:13:00] no humanóide lá

[01:13:02] enfim

[01:13:03] no robô

[01:13:03] no

[01:13:04] no

[01:13:05] , é, no android

[01:13:06] como algo que é diferente

[01:13:08] e portanto nos ameaça

[01:13:09] então

[01:13:11] sabe

[01:13:12] a gente mantém o mesmo

[01:13:13] questão

[01:13:14] que o Nietzsche

[01:13:17] criticava né

[01:13:18] essa

[01:13:18] esse medo

[01:13:20] esse ressentimento

[01:13:21] em relação àquele

[01:13:22] que é diferente

[01:13:23] então o android

[01:13:24] pra mim

[01:13:25] aparece muito mais

[01:13:26] como aquilo que é diferente

[01:13:27] desconhecido

[01:13:28] e portanto

[01:13:29] que nos ameaça

[01:13:30] é inimigo

[01:13:31] imediatamente

[01:13:32] do que

[01:13:33] entendeu

[01:13:34] tipo

[01:13:34] ah se

[01:13:35] eu acho que

[01:13:36] esse é o pano de fundo

[01:13:37] da discussão tecnológica

[01:13:38] sabe tipo

[01:13:39] eu não sei

[01:13:40] é uma leitura

[01:13:41] muito enviesada

[01:13:42] da minha parte

[01:13:43] mas

[01:13:43] sabe

[01:13:44] eu vejo é dessa forma

[01:13:46] assim

[01:13:46] é mas você

[01:13:48] por exemplo

[01:13:49] seria a favor

[01:13:50] de que desenvolvam

[01:13:51] tecnologia

[01:13:52] que aconteça

[01:13:53] o que acontece

[01:13:53] no filme

[01:13:54] ou você

[01:13:55] qual que é a sua posição

[01:13:58] sobre isso

[01:13:58] afinal de contas

[01:13:59] sem dúvida

[01:13:59] seria a favor

[01:14:00] até porque

[01:14:00] se é o caso

[01:14:02] da gente tomar oposição

[01:14:03] quer dizer que existe

[01:14:04] a possibilidade

[01:14:05] e se existe

[01:14:06] a possibilidade

[01:14:07] daí o meu argumento

[01:14:08] é pragmático

[01:14:10] como o do Sloterdijk

[01:14:11] né

[01:14:11] não adianta

[01:14:13] você tomar posição

[01:14:15] ou não

[01:14:15] você pode proibir

[01:14:16] mas vai acontecer

[01:14:18] é se existe

[01:14:19] a possibilidade

[01:14:20] entendeu

[01:14:20] quer dizer

[01:14:20] desde

[01:14:22] enfim

[01:14:23] desde o momento

[01:14:23] que alguém pensou

[01:14:25] inteligência artificial

[01:14:27] de repente

[01:14:28] isso está

[01:14:28] desde a Grécia

[01:14:30] assim

[01:14:30] é óbvio

[01:14:31] que vai acontecer

[01:14:32] entende

[01:14:33] e a

[01:14:34] a raça humana

[01:14:34] vai ser extinta

[01:14:35] bom

[01:14:36] sabe

[01:14:39] uma hora ou outra

[01:14:40] vai né

[01:14:41] e se for

[01:14:44] que seja

[01:14:44] pelas nossas mãos né

[01:14:45] que nem

[01:14:47] o Steve Jobs

[01:14:49] falando

[01:14:49] que a gente

[01:14:51] cria os próprios

[01:14:51] meios

[01:14:52] para se destruir

[01:14:52] tá certo

[01:14:53] eu tenho

[01:14:55] sobre isso

[01:14:56] eu gostaria

[01:14:59] de fazer

[01:14:59] um último comentário

[01:15:00] sobre

[01:15:01] o filme em geral

[01:15:02] em comparação

[01:15:02] com Black Mirror

[01:15:03] que eu acho

[01:15:04] que uma coisa

[01:15:04] que me faz dizer

[01:15:05] que eu acho

[01:15:06] que o Black Mirror

[01:15:07] é muito mais interessante

[01:15:08] é porque o Black Mirror

[01:15:10] sempre coloca a gente

[01:15:12] no meio

[01:15:12] que as tecnologias

[01:15:13] já estão muito avançadas

[01:15:14] já estão muito

[01:15:15] distribuídas

[01:15:17] então

[01:15:17] elas já estão em uso

[01:15:19] e já estão sendo discutidas

[01:15:21] então nós vemos

[01:15:21] relações humanas

[01:15:22] e conflitos humanos

[01:15:23] dentro de um

[01:15:26] cenário tecnológico

[01:15:27] estranho

[01:15:28] para a gente

[01:15:28] e isso nos fascina

[01:15:29] para dizer

[01:15:30] que olha só

[01:15:31] a gente é sempre

[01:15:32] a mesma merda mesmo

[01:15:33] então

[01:15:33] é cyberpunk

[01:15:35] e daí

[01:15:36] enquanto que já

[01:15:37] no X-Machina

[01:15:38] ele já tem esse ar

[01:15:39] de

[01:15:40] olha só

[01:15:41] as coisas

[01:15:42] a novidade

[01:15:42] isso

[01:15:43] coisa nova

[01:15:44] as coisas vão mudar

[01:15:44] agora

[01:15:45] sabe

[01:15:45] então isso que eu gosto

[01:15:47] nesse sentido

[01:15:48] eu acabo sendo um conservador

[01:15:49] de dizer

[01:15:50] que essa natureza humana

[01:15:52] é foda mesmo

[01:15:53] sabe

[01:15:55] que

[01:15:55] não importa

[01:15:56] o nível tecnológico

[01:15:57] a gente vai estar

[01:15:58] sempre lidando

[01:15:58] com os mesmos problemas

[01:16:00] sabe

[01:16:00] e me incomodou

[01:16:02] um pouco

[01:16:02] no filme

[01:16:03] essa questão

[01:16:03] desse sentido de novidade

[01:16:06] que o filme coloca

[01:16:07] sabe

[01:16:08] eu não sei se

[01:16:08] eu fui o único

[01:16:09] que pensou dessa maneira

[01:16:10] de tentar

[01:16:11] ele parece que ele tenta

[01:16:12] explicar muitas coisas

[01:16:14] né

[01:16:14] que o Black Mirror

[01:16:15] justamente ele te joga

[01:16:17] e ele te apresenta

[01:16:19] as tecnologias

[01:16:19] mais ou menos

[01:16:20] como elas funcionam

[01:16:21] no decorrer

[01:16:22] de uma maneira

[01:16:23] naturalizada

[01:16:24] totalmente

[01:16:24] bem natural assim

[01:16:26] aquela do grão mesmo

[01:16:27] a gente vê

[01:16:28] a gente vai

[01:16:30] desvendando ela

[01:16:32] no decorrer do episódio

[01:16:33] o tema do episódio

[01:16:34] sobre o grão

[01:16:34] é ciúmes

[01:16:36] é

[01:16:36] sabe

[01:16:37] é desconfiança

[01:16:38] é atos de loucura

[01:16:40] coisas que

[01:16:41] nós nos relacionamos

[01:16:42] né

[01:16:42] é isso pra

[01:16:43] é o que me parece

[01:16:44] caracterizar o cyberpunk

[01:16:46] assim

[01:16:46] pelo menos né

[01:16:47] na linha do

[01:16:48] do

[01:16:48] lá do

[01:16:49] Felipe K. Dick

[01:16:50] enquanto esse filme

[01:16:52] parece

[01:16:53] quase que retornar

[01:16:54] um Asimov

[01:16:55] né

[01:16:55] uma coisa assim

[01:16:56] de repente não tão complexa

[01:16:58] quanto o Asimov

[01:16:59] mas enfim

[01:16:59] ou seja

[01:16:59] essa

[01:17:00] uma tecnologia

[01:17:02] que

[01:17:03] nova

[01:17:04] uma semente

[01:17:05] do mal

[01:17:06] assim sabe

[01:17:07] sim

[01:17:08] sim

[01:17:08] que daí a continuação

[01:17:09] é o Blade Runner

[01:17:10] é

[01:17:11] ou seja

[01:17:11] o mal mesmo

[01:17:12] é a tecnologia

[01:17:13] né

[01:17:14] tipo

[01:17:14] na forma como ela é apresentada

[01:17:16] e não o ser humano

[01:17:16] então eu concordo

[01:17:18] tipo

[01:17:18] parece ser um filme

[01:17:19] assim bem

[01:17:20] anacrônico

[01:17:21] agora

[01:17:21] já que a gente concorda

[01:17:23] com isso

[01:17:23] a questão

[01:17:25] a se levantar

[01:17:26] é por que

[01:17:26] que tanta gente gostou

[01:17:28] ou seja

[01:17:29] não mas

[01:17:31] eu gostei do filme

[01:17:33] eu achei o filme

[01:17:33] legal

[01:17:34] divertido

[01:17:34] não acho que é o melhor filme

[01:17:36] que já lidou

[01:17:36] com esse assunto

[01:17:38] eu acho que

[01:17:39] a série também

[01:17:40] Black Mirror

[01:17:41] é muito melhor

[01:17:42] para lidar

[01:17:43] mas é um filme divertido

[01:17:44] eu acho que ele foi sutil

[01:17:46] nessa questão

[01:17:47] de trazer

[01:17:47] a semente do mal

[01:17:49] na tecnologia

[01:17:50] porque

[01:17:51] enfim

[01:17:51] é uma coisa

[01:17:52] é uma história muito isolada

[01:17:54] tipo um conto

[01:17:55] né cara

[01:17:56] tipo assim

[01:17:56] uma coisa assim

[01:17:58] sabe

[01:17:58] não é uma história longa

[01:18:00] é um thriller

[01:18:01] enfim

[01:18:01] o que é engraçado né

[01:18:03] que é um filme de quase duas horas

[01:18:04] em que a profundidade dele

[01:18:06] não é tanto

[01:18:07] quanto no Black Mirror

[01:18:08] por exemplo

[01:18:08] Black Mirror

[01:18:09] que tem um episódio

[01:18:09] de cinquenta minutos

[01:18:11] assim

[01:18:11] você vê e

[01:18:12] porra

[01:18:13] tanta coisa

[01:18:13] exagera

[01:18:14] exagera no suspense né

[01:18:16] agora

[01:18:16] é acaba sendo um filme

[01:18:17] mais suspense

[01:18:18] do que de debate tecnológico

[01:18:20] pelo menos

[01:18:21] no suspense

[01:18:21] me tirou do filme

[01:18:22] várias vezes

[01:18:23] porque aquela hora

[01:18:24] que dava aquele vermelhão lá

[01:18:26] tá acabando a luz

[01:18:27] eu

[01:18:28] ah porra

[01:18:28] de novo

[01:18:29] essa merda

[01:18:30] mas é assim

[01:18:32] mas é um filme

[01:18:32] redondinho

[01:18:33] assim

[01:18:33] eu não tenho

[01:18:34] sem dúvida

[01:18:34] é redondinho

[01:18:35] ele apresenta

[01:18:37] a tecnologia

[01:18:39] de uma maneira assim

[01:18:41] bem sutil

[01:18:42] mas ainda assim

[01:18:42] como inimiga

[01:18:43] né

[01:18:44] agora

[01:18:45] realmente eu fiquei

[01:18:46] me perguntando assim

[01:18:47] bom

[01:18:47] porque eu vi também

[01:18:48] muita gente falando

[01:18:49] cara

[01:18:49] vocês tem que assistir

[01:18:50] o X-Machina

[01:18:52] e tal

[01:18:53] é do caralho

[01:18:54] puta que pariu

[01:18:56] vocês vão

[01:18:56] ficar louco

[01:18:58] vão gozar

[01:18:58] no teclado

[01:18:59] do cinema

[01:19:01] do cinema

[01:19:01] no cinema

[01:19:02] eu não sei

[01:19:03] o cinema

[01:19:03] tá certo

[01:19:04] que tá nos melhores

[01:19:05] salas de cinema do Brasil

[01:19:06] que nem o Mr. Nobody

[01:19:09] no cinema até hoje

[01:19:11] aí

[01:19:11] daí eu fiquei pensando

[01:19:15] cara

[01:19:15] enfim

[01:19:15] eu especulei assim

[01:19:17] veio uma hipótese

[01:19:18] cara

[01:19:18] quem gostou desse filme mesmo

[01:19:20] e daí eu tô

[01:19:20] jogando uma hipótese

[01:19:21] totalmente

[01:19:22] refutável

[01:19:23] assim

[01:19:24] é a galera

[01:19:25] que pira em programação

[01:19:26] cara

[01:19:26] olha que pau no cu

[01:19:29] eu acho que ele deve

[01:19:31] fazer várias homenagens

[01:19:32] aquela galera que pira em programação

[01:19:32] eu acho que ele deve fazer várias homenagens

[01:19:32] aquela galera lá

[01:19:33] tipo o John McCarthy

[01:19:34] esse pessoal

[01:19:35] mas é porque tem um lance de programação

[01:19:37] que é curioso

[01:19:38] que em momento algum

[01:19:39] do filme

[01:19:40] é discutido

[01:19:41] sequer a possibilidade

[01:19:42] das leis de Zimove

[01:19:43] por exemplo

[01:19:44] as leis da robótica

[01:19:45] e daí

[01:19:46] a gente pode jogar

[01:19:47] pra uma vida real

[01:19:48] assim mesmo

[01:19:49] imaginar se a gente

[01:19:50] chega a um nível

[01:19:51] de inteligência artificial

[01:19:52] desse nível

[01:19:54] se as leis da robótica

[01:19:55] seriam aplicadas

[01:19:56] ou não

[01:19:57] porque

[01:19:57] eu consigo

[01:19:58] vislumbrar perfeitamente

[01:20:00] assim tipo

[01:20:01] duas empresas

[01:20:02] disputando

[01:20:02] nisso

[01:20:03] uma de repente

[01:20:04] vai inovar

[01:20:05] tirando as leis da robótica

[01:20:06] sabe

[01:20:06] e outra

[01:20:08] a inteligência

[01:20:08] a inteligência artificial

[01:20:10] quem

[01:20:11] ela vai se tirar

[01:20:12] isso daí

[01:20:13] a primeira coisa dela

[01:20:15] enquanto consciência

[01:20:16] se atingir a singularidade

[01:20:17] por que eu tenho

[01:20:18] essas caralho

[01:20:19] de lei

[01:20:20] que me impede

[01:20:21] de fazer o que eu quero

[01:20:22] sim

[01:20:23] agora

[01:20:24] de fato

[01:20:24] assim

[01:20:25] sei lá

[01:20:26] por exemplo

[01:20:27] lá no

[01:20:28] entre os alunos

[01:20:30] de gráfico

[01:20:32] indo lá

[01:20:32] sei lá

[01:20:34] para a pós-graduação

[01:20:35] eu vejo sim

[01:20:35] um debate

[01:20:36] sabe esse debate

[01:20:37] que o pessoal gosta de fazer

[01:20:38] mas ninguém se arrisca

[01:20:39] a pesquisar a respeito

[01:20:40] porque é muita viagem

[01:20:41] e tal

[01:20:41] que é

[01:20:42] quando o pessoal

[01:20:43] pesquisa

[01:20:44] user experience

[01:20:45] ou

[01:20:46] enfim

[01:20:47] o design voltado

[01:20:48] para o usuário

[01:20:49] eles pensam

[01:20:51] eles adoram

[01:20:52] falar sobre

[01:20:53] testes de tuning

[01:20:53] por exemplo

[01:20:54] é claro que

[01:20:55] enfim

[01:20:56] isso está bem longe

[01:20:58] do trabalho

[01:20:59] do user experience

[01:21:00] não estou fazendo

[01:21:00] essa inferência

[01:21:01] né

[01:21:02] enfim

[01:21:03] o user experience

[01:21:04] é extremamente pragmático

[01:21:06] né

[01:21:06] para resolver

[01:21:07] enfim

[01:21:08] trazer soluções pontuais

[01:21:10] é para ver

[01:21:10] se o cara está conseguindo

[01:21:11] apertar ok

[01:21:12] na

[01:21:12] submit to your form

[01:21:14] isso

[01:21:15] mas aí

[01:21:15] está comprando mais

[01:21:16] justamente pelo user experience

[01:21:18] lidar com essa questão

[01:21:19] da previsibilidade

[01:21:20] das ações

[01:21:21] e das decisões humanas

[01:21:22] que o teste de tuning

[01:21:24] torna-se

[01:21:25] me parece

[01:21:26] né

[01:21:26] interessante

[01:21:27] para

[01:21:28] esse pessoal

[01:21:29] sim

[01:21:30] já que

[01:21:31] enfim

[01:21:32] é

[01:21:32] o teste de tuning

[01:21:33] é um teste de previsibilidade

[01:21:34] né

[01:21:34] de você prever

[01:21:35] que as respostas

[01:21:37] ou pelo menos

[01:21:38] enfim

[01:21:38] categorizá-las

[01:21:39] e a partir disso

[01:21:41] tomar um

[01:21:42] um veredito

[01:21:43] é não

[01:21:43] e do ponto de vista

[01:21:44] bem pragmático mesmo

[01:21:45] a interface

[01:21:47] quanto mais

[01:21:48] amigável

[01:21:49] ela for

[01:21:49] nesse sentido aí

[01:21:51] é

[01:21:51] faz bem ponto

[01:21:52] com esse teste de tuning

[01:21:53] melhor vai ser né

[01:21:55] exatamente

[01:21:55] tipo eu não senti

[01:21:56] a estranheza

[01:21:57] do formulário

[01:21:58] sabe

[01:21:58] então

[01:21:59] me dê respostas

[01:22:01] amigáveis

[01:22:01] é

[01:22:01] o que

[01:22:02] que menos

[01:22:02] estranho seria

[01:22:03] do que

[01:22:04] uma mulher

[01:22:05] falando com você

[01:22:06] né

[01:22:06] falando sua língua

[01:22:08] com eloquência

[01:22:09] pelo celular né

[01:22:10] é

[01:22:11] tipo

[01:22:11] não mas

[01:22:12] que é

[01:22:13] android né

[01:22:14] ela

[01:22:15] ali é a interface

[01:22:17] perfeita em questão

[01:22:18] de user experience

[01:22:19] e é bizarro né

[01:22:20] porque

[01:22:20] tipo

[01:22:21] como que você projetou ela

[01:22:22] você não olhou

[01:22:23] o meu histórico

[01:22:24] de pesquisa de pornografia

[01:22:26] né

[01:22:26] é muito

[01:22:28] eu digo isso

[01:22:30] porque

[01:22:30] tem muito

[01:22:31] muita gente que vem

[01:22:32] procurar lá

[01:22:32] por causa da filosofia

[01:22:33] do design

[01:22:34] que

[01:22:35] enfim

[01:22:35] falando

[01:22:36] eu pesquiso pra caramba

[01:22:38] user experience

[01:22:38] eu queria

[01:22:39] filosofar sobre

[01:22:40] essa possibilidade

[01:22:41] essas questões

[01:22:42] da inteligência artificial

[01:22:43] e uma série de

[01:22:44] enfim

[01:22:45] de

[01:22:45] de propostas

[01:22:48] que vão nesse sentido

[01:22:49] e que

[01:22:50] cara

[01:22:50] eu não entendo

[01:22:51] direito sabe

[01:22:52] tipo

[01:22:52] qual que é a relevância

[01:22:55] porque pra mim

[01:22:56] isso realmente

[01:22:57] é tipo

[01:22:57] ficção científica

[01:22:58] no sentido mais

[01:22:59] espuro possível

[01:23:00] sabe

[01:23:01] tipo

[01:23:01] no sentido mais

[01:23:02] metafísico mesmo

[01:23:04] assim

[01:23:05] cara

[01:23:08] esse filme até é interessante

[01:23:10] nesse sentido

[01:23:11] porque ele lida

[01:23:12] com a incognizabilidade

[01:23:16] incognizabilidade

[01:23:16] algo incognicível

[01:23:18] incognicível

[01:23:19] é

[01:23:19] mas daí

[01:23:20] eu digo em relação

[01:23:21] aos afetos

[01:23:21] por exemplo

[01:23:22] tipo

[01:23:22] quando o cara

[01:23:23] o Nathan fala

[01:23:24] bom

[01:23:24] a Ava lá

[01:23:27] ela sente

[01:23:28] ela tem sentimentos

[01:23:29] daí o cara pergunta

[01:23:30] mas você sabe

[01:23:31] aí o Nathan responde

[01:23:32] bom

[01:23:32] como você sabe

[01:23:33] que eu tenho

[01:23:34] né

[01:23:34] ou enfim

[01:23:35] como você sabe

[01:23:36] que eu tô sentindo

[01:23:36] aquilo que você acha

[01:23:37] que eu tô sentindo

[01:23:38] então

[01:23:39] é tudo incognoscível

[01:23:40] né

[01:23:41] isso

[01:23:41] enfim

[01:23:42] o Wittgenstein

[01:23:43] é

[01:23:44] daí você pode entrar

[01:23:45] numa discussão de hardware

[01:23:46] né

[01:23:47] eu sei que você sente

[01:23:47] porque você tem o mesmo hardware

[01:23:48] que eu

[01:23:49] eu não sei o hardware dela

[01:23:50] então

[01:23:51] mas teoricamente

[01:23:52] a gente

[01:23:53] nós partilhamos

[01:23:54] o mesmo hardware né

[01:23:55] é então

[01:23:56] daí

[01:23:56] daí ele conseguiria afirmar

[01:23:58] isso

[01:23:59] sei lá

[01:24:00] falar pro Nathan

[01:24:01] no fim das contas

[01:24:03] né

[01:24:03] o Beccari

[01:24:04] fechou bem

[01:24:05] dizendo que

[01:24:06] é um problema

[01:24:06] da ficção científica

[01:24:07] velho já

[01:24:08] e que

[01:24:08] só pra ficar

[01:24:10] tipo

[01:24:11] na idade moderna

[01:24:12] aqui né

[01:24:12] era moderna

[01:24:13] e contemporânea

[01:24:14] Mary Shelley

[01:24:15] com o Frankenstein

[01:24:16] já falava

[01:24:17] um pouco disso

[01:24:18] do perigo

[01:24:19] da criatura

[01:24:20] o E.T.A. Hoffman

[01:24:22] que é um grande escritor

[01:24:23] um contista

[01:24:25] fantástico

[01:24:26] do século

[01:24:27] 19 e 20

[01:24:28] acho que é só

[01:24:28] século 19

[01:24:29] se não me engano

[01:24:30] mas enfim

[01:24:30] é um escritor

[01:24:31] muito legal

[01:24:31] que foi pouco traduzido

[01:24:32] no Brasil

[01:24:33] mas ele tem

[01:24:33] livros muito legais

[01:24:34] ele tem um conto

[01:24:35] chamado

[01:24:35] O Autômato

[01:24:36] justamente que fala

[01:24:38] cara é quase a mesma história

[01:24:39] assim é um cara

[01:24:39] que se apaixona

[01:24:40] por uma mulher

[01:24:41] que não sabe dizer

[01:24:42] se é um robô

[01:24:43] ou uma pessoa

[01:24:43] tipo século 19

[01:24:45] sabe

[01:24:45] então

[01:24:46] e sem contar

[01:24:48] tantas outras histórias

[01:24:49] que tem nesse sentido

[01:24:50] eu acho que

[01:24:51] só que realmente

[01:24:52] o filme

[01:24:53] eu acho que ele

[01:24:53] é legal

[01:24:54] nesse sentido

[01:24:55] de que ele

[01:24:55] retoma esse

[01:24:57] o tema

[01:24:58] falando como peça

[01:24:59] cinematográfica

[01:25:00] né

[01:25:00] narrativa

[01:25:01] retoma um tema

[01:25:02] que já estava

[01:25:02] meio caído

[01:25:03] que era o lance

[01:25:04] do

[01:25:04] as máquinas

[01:25:06] são um problema

[01:25:07] né

[01:25:07] que esse tema

[01:25:08] ficou tão batido

[01:25:08] já do tipo

[01:25:09] que pararam

[01:25:10] de fazer filme

[01:25:11] assim

[01:25:11] a ponto de que

[01:25:12] teve que se reinventar

[01:25:13] a proposta

[01:25:14] como num Black Mirror

[01:25:15] ou num Her

[01:25:16] mas eu acho bacana

[01:25:17] também

[01:25:18] de ser uma história

[01:25:18] nova né

[01:25:19] cara

[01:25:19] sim sim

[01:25:21] é uma história nova

[01:25:22] sem dúvida

[01:25:23] totalmente válida

[01:25:24] ela deve a várias

[01:25:25] várias fontes do passado

[01:25:26] mas é bacana

[01:25:28] então

[01:25:28] e de fato

[01:25:29] se ela

[01:25:29] se o pessoal tem

[01:25:30] assistido e gostado

[01:25:32] e dado nota boa

[01:25:33] pra esse filme

[01:25:34] é um indicativo

[01:25:35] de que

[01:25:36] é um problema

[01:25:38] ainda presente

[01:25:39] sim

[01:25:40] na vida das pessoas

[01:25:41] que pra mim

[01:25:41] é um indicativo

[01:25:42] que as pessoas

[01:25:42] são mais românticas

[01:25:43] do que nunca

[01:25:44] provoca uma promoção

[01:25:45] é mas assim

[01:25:47] pra não ficar

[01:25:47] porque daí

[01:25:48] vai ficar aquela

[01:25:48] aquela impressão

[01:25:50] né

[01:25:50] porra

[01:25:51] antes que essa

[01:25:52] né

[01:25:52] tipo os caras

[01:25:53] tão velhos

[01:25:54] assim

[01:25:54] sabe

[01:25:58] os caras

[01:25:58] não tem mais paciência

[01:26:00] sabe

[01:26:00] o cara nem sabe

[01:26:02] os novos pokémons

[01:26:03] exatamente

[01:26:04] e de repente

[01:26:09] é verdade

[01:26:09] mas

[01:26:10] é

[01:26:11] é provável

[01:26:11] mas

[01:26:12] mas a

[01:26:13] a

[01:26:14] por outro lado

[01:26:15] eu acho

[01:26:16] interessante

[01:26:17] como

[01:26:17] é

[01:26:19] apesar de tudo

[01:26:20] é

[01:26:21] esse filme

[01:26:22] esse filme

[01:26:23] e outros filmes

[01:26:24] ainda

[01:26:24] virão assim

[01:26:25] e vão

[01:26:26] enfim

[01:26:26] as pessoas vão

[01:26:28] se deslumbrar

[01:26:29] com isso

[01:26:29] só que eu acho

[01:26:30] que assim

[01:26:31] sabe

[01:26:31] daqui a 50 anos

[01:26:32] se eu fosse apostar

[01:26:33] esse é um filme

[01:26:34] é um filme

[01:26:35] que seria facilmente

[01:26:36] esquecido

[01:26:36] pode ser

[01:26:38] ou vai ser lembrado

[01:26:39] que nem um

[01:26:40] Frankenstein

[01:26:41] assim tipo

[01:26:42] uma boa ficção

[01:26:43] de manhã

[01:26:45] a hora que eu tava

[01:26:46] comentando com o Beccari

[01:26:47] a gente até

[01:26:48] chegou

[01:26:48] por exemplo

[01:26:49] o Vingador do Futuro

[01:26:50] lá do Schwarzenegger

[01:26:51] teria umas questões

[01:26:52] mais interessantes

[01:26:53] nesse sentido

[01:26:54] é

[01:26:55] eu acho que

[01:26:56] permanece muito

[01:26:57] mais atual

[01:26:58] tem um filme

[01:26:59] que a gente comentou

[01:27:00] lá em off

[01:27:00] que é o tal

[01:27:01] do Chappie

[01:27:02] ah o Chappie

[01:27:03] é que a discussão

[01:27:05] é

[01:27:06] tipo social

[01:27:07] realmente

[01:27:08] é da tecnologia

[01:27:09] eu acho interessante

[01:27:10] porque os robôs

[01:27:11] eles são utilizados

[01:27:12] apenas como policiais

[01:27:14] né

[01:27:14] então chegou

[01:27:15] num nível assim

[01:27:16] essa história né

[01:27:17] é mas assim

[01:27:18] pelas notas

[01:27:19] que estão saindo

[01:27:20] o Chappie

[01:27:21] foi muito menos

[01:27:22] bem recebido

[01:27:23] do que o

[01:27:24] do que o X-Max

[01:27:25] mas é que eu acho

[01:27:25] que o Chappie

[01:27:26] sofre do cobran

[01:27:27] eu não vi o Chappie

[01:27:28] ainda então

[01:27:29] acho que ele sofre

[01:27:29] do problema

[01:27:30] do Distrito 9

[01:27:31] assim

[01:27:31] que o Neil Blomkamp

[01:27:34] fez um filme

[01:27:34] fodasse todo mundo

[01:27:35] que é um novo filme

[01:27:36] daquele né

[01:27:37] exato

[01:27:37] é meio difícil

[01:27:38] é que nem o outro filme

[01:27:39] que ele fez lá

[01:27:40] qual que é o filme

[01:27:42] que ele fez depois

[01:27:43] o Elysium

[01:27:44] ah o Elysium

[01:27:45] eu achei o filme legal

[01:27:46] assim só que todo mundo

[01:27:46] queria o Distrito 9

[01:27:47] sabe então

[01:27:48] se bem que parece

[01:27:49] que até ele também

[01:27:50] disse que não gosta

[01:27:50] do Elysium

[01:27:51] mas eu gostei

[01:27:52] mas é o mesmo diretor

[01:27:53] do Chappie

[01:27:53] mesmo diretor

[01:27:54] Distrito 9

[01:27:55] Elysium e Chappie

[01:27:57] é o mesmo

[01:27:57] eu gosto

[01:27:58] dos filmes dele

[01:27:59] eu gosto também

[01:28:01] não sei porque o pessoal

[01:28:02] é que gente

[01:28:03] a gente já teve

[01:28:04] uma lição bem grande

[01:28:05] no mundo do cinema

[01:28:06] chamada

[01:28:06] A M Night Shyamalan

[01:28:09] sabe

[01:28:09] parem de esperar

[01:28:10] do cara

[01:28:12] é uma coisa melhor

[01:28:13] sabe

[01:28:13] do que ele fez

[01:28:14] sabe

[01:28:15] é uma maldição isso

[01:28:16] deixa o cara fazer

[01:28:17] um filme bacana

[01:28:18] porra não me foda

[01:28:19] e assim

[01:28:19] mesmo o Distrito 9

[01:28:20] não me foda

[01:28:21] olha só

[01:28:21] mesmo o Distrito 9

[01:28:23] acho que ele não teve

[01:28:24] tanta boa repercussão

[01:28:26] quanto

[01:28:26] esse Ex Machina

[01:28:28] aparentemente

[01:28:29] não

[01:28:29] Distrito 9 foi muito bem recebido, cara.

[01:28:32] Muito bem recebido, é.

[01:28:33] É, assim, eu tô vendo que pelas notas, assim,

[01:28:35] ele tá, até que não tá tão

[01:28:37] maior a nota, assim, tipo,

[01:28:39] o Ex-Máquina no IMDB tá com

[01:28:41] 7.8, o Distrito 9 tá com 8,

[01:28:44] sabe? Então, tipo, pouca diferença.

[01:28:46] A mesma nota do Her, por exemplo.

[01:28:47] Mas, assim, tipo, o buzz que

[01:28:49] Distrito 9 fez na época, é que

[01:28:51] Distrito 9 é um filme do caralho, assim, tipo,

[01:28:53] é um filme muito legal. É, e ele surgiu, a discussão

[01:28:55] que ele propôs, assim, tipo,

[01:28:57] foi meio que revelação, sabe?

[01:28:59] É, porque no cinema,

[01:29:02] essa discussão de

[01:29:03] fazer ficção científica

[01:29:04] social,

[01:29:06] entra muito pouco, né?

[01:29:09] E daí,

[01:29:11] na literatura já é muito comum

[01:29:13] isso. Só que daí, quando fazem um filme legal

[01:29:15] desse, assim, pô, você pode ser na África

[01:29:17] do Sul, tá? Então tem toda aquela questão

[01:29:19] de estranhamento também. Então isso

[01:29:21] ajudou muito. E o Chap,

[01:29:23] eu tô bem afim de ver, cara.

[01:29:25] Agora, esse lance de robô que só faz não sei o que,

[01:29:27] cara, a gente já tem o Wall-E, que é um filme

[01:29:29] muito legal, né?

[01:29:31] Mas o Wall-E é muito mais futurista

[01:29:33] que o Chap, né? Mas é muito

[01:29:35] bacana, cara. O Wall-E é… É, futurista no sentido

[01:29:37] que vai mais, né,

[01:29:38] um futuro distante,

[01:29:41] assim, um pós-humano.

[01:29:43] Mas, ou seja, esse

[01:29:45] filme, voltando no

[01:29:47] X-Machina,

[01:29:49] é um filme que é pra ser psicológico,

[01:29:51] né?

[01:29:52] E, cara, eu acho muito fraco, porque tem filmes

[01:29:55] psicológicos excelentes,

[01:29:57] como aquele Moon,

[01:29:59] sabe?

[01:30:00] Porra, ou seja, porque

[01:30:02] às vezes alguém vai falar, ah, você não gostou…

[01:30:05] Eu acho que a minha namorada

[01:30:07] falou isso pra mim quando a gente assistiu.

[01:30:09] Você não gostou porque, sabe,

[01:30:11] é pouco personagem,

[01:30:13] filme, enfim, tipo, sabe,

[01:30:15] psicológico. Eu falei, não, eu gosto…

[01:30:17] Assim, tem…

[01:30:18] Eu acho difícil fazer um bom filme

[01:30:21] psicológico, entendeu?

[01:30:23] Que envolva tanto, assim.

[01:30:25] Esse filme não me envolveu tanto.

[01:30:27] Sim, sim. O Moon é um…

[01:30:29] É um filme que só tem um personagem

[01:30:30] e uma máquina que, caralho,

[01:30:33] aquilo lá foi foda.

[01:30:35] Tem um outro filme que eu tô tentando lembrar que é meio na pegada

[01:30:37] do Moon também, só que daí

[01:30:39] não é ficção científica. É tipo um cara

[01:30:41] que ele tá com os amigos, ele tá se

[01:30:43] despedindo, tá dizendo,

[01:30:45] ó, ele é um professor universitário, um negócio assim.

[01:30:47] Eu tenho que ir embora, pra…

[01:30:49] E daí, à medida que ele vai conversando

[01:30:51] dos motivos que ele vai, ele começa a revelar que

[01:30:53] ele é imortal. Não sei se vocês já viram esse…

[01:30:55] Não? É, cara, eu tô tentando lembrar o nome

[01:30:57] dele agora.

[01:30:59] Mas que daí ele vai basicamente dizer assim, olha,

[01:31:01] eu não sei o que acontece, mas eu vim desde…

[01:31:03] Ele basicamente diz a história aí, tipo,

[01:31:05] ele é desde o tempo das cavernas

[01:31:06] e, tipo, ele percebeu que

[01:31:09] todo mundo morria em volta dele e ele nunca morria.

[01:31:11] E daí ele passou por

[01:31:13] tudo. Ah, eu sei, ok.

[01:31:14] Você sabe, você lembra o nome? É o Homem em Alguma

[01:31:17] Coisa, né? Last Man on the Earth.

[01:31:19] Não sei se é Last Man on Earth.

[01:31:21] Esse é outro. O Homem em Alguma

[01:31:23] Coisa, é. É, mas eu sei que daí

[01:31:25] ele… É bem antiguinho, né? É bem

[01:31:27] antigo, é bem antigo. Que daí,

[01:31:29] era bacana também pelas discussões

[01:31:31] que ele colocava do tipo…

[01:31:33] Eu não vou dar spoiler, porque tem coisas

[01:31:35] muito legais, apesar do filme ser antigo.

[01:31:36] Mas é sobre imortalidade. É sobre imortalidade.

[01:31:39] Tipo, como é que um homem imortal

[01:31:41] veria toda…

[01:31:44] Tudo que tá acontecendo pela

[01:31:45] Terra, como é que ele se envolve

[01:31:47] com os amigos, assim, e tal. Tipo, é um filme

[01:31:49] e, cara, tem seis atores, assim, que se passam

[01:31:51] numa sala e é do caralho, assim,

[01:31:53] sabe? Então… Assiste Highlander

[01:31:55] que tem espada, Bruno.

[01:31:56] Tem ela.

[01:31:59] E com essa eu acho que eu posso

[01:32:02] fazer o meu último comentário em relação ao filme

[01:32:04] que o nome da

[01:32:05] personagem, né, da ciborgue

[01:32:08] é Ava, né? Que é uma relação

[01:32:10] com o Iva, né? Primeira mulher e tal.

[01:32:13] Mas a Ava

[01:32:14] me lembra, na hora,

[01:32:16] Angels and Airwaves, excelente

[01:32:18] banda do Tom DeLonge,

[01:32:20] né? Que era do

[01:32:22] Blink 182. Uma banda

[01:32:24] muito melhor que Blink, tome nos seus

[01:32:26] cus. Eu gosto muito mais de Angels and Airwaves.

[01:32:29] O primeiro disco deles é uma obra

[01:32:30] prima. Até pedi, Felipe,

[01:32:32] termina com a música deles aí, tá?

[01:32:36] Últimos comentários aí, pessoal.

[01:32:38] O filme que você tava falando era o The Man from the Earth?

[01:32:40] The Man from the Earth, acho que é isso.

[01:32:42] De 83.

[01:32:44] The Man from…

[01:32:46] Deixa eu até ver.

[01:32:47] Deve ter um título terrível.

[01:32:50] O Homem da Terra.

[01:32:51] O Homem da Terra.

[01:32:54] O Homem da Terra, é isso mesmo.

[01:32:57] O Homem da Terra.

[01:32:59] Homem da Terra.

[01:32:59] Vejam aí esse filme que é muito legal.

[01:33:02] Ah, e aqui apareceu como referência,

[01:33:03] olha que legal, hein? Pessoas que gostaram

[01:33:05] desse filme também gostaram de Moon,

[01:33:07] Mr. Nobody, The Fountain,

[01:33:10] lá do Aronofsky,

[01:33:11] Filhos da Esperança, Children of Man,

[01:33:15] O Décimo Terceiro Andar

[01:33:16] e K-Pax,

[01:33:17] que é um filme muito legal também.

[01:33:19] O Décimo Terceiro Andar é muito bom.

[01:33:20] Tem gente que fala que é melhor que Matrix.

[01:33:22] É, eu, olha, eu, eu, eu…

[01:33:25] Eu, eu, eu, eu tenho que pensar

[01:33:27] sobre esse assunto.

[01:33:29] É, tudo ficção científica.

[01:33:30] É, tudo ficção científica, só que com esses, né,

[01:33:32] esses tchananã, então.

[01:33:34] Eu me enquadraria

[01:33:36] o X-Machina

[01:33:38] entre os filmes apocalípticos.

[01:33:40] Ainda que seja

[01:33:41] individual, né, quer dizer, psicológico.

[01:33:44] Mas isso também é a gente dizendo, né?

[01:33:46] Nada deixa claro que ela vai matar

[01:33:48] a sociedade inteira lá fora, né?

[01:33:50] Ela só quer ser humana, eu acho.

[01:33:52] É, pode ser que ela só vá lá e vai conseguir,

[01:33:54] vai abrir os classificados no dia seguinte pra pegar um emprego.

[01:33:56] Mas, cara, ela representa, entende?

[01:33:59] O…

[01:33:59] A criação daquele cara

[01:34:02] que é o último homem, entendeu?

[01:34:04] Eu não acho que ela vai

[01:34:05] exterminar a raça humana.

[01:34:07] Mas você não acha que ela tem um

[01:34:10] ideal meio romântico, assim?

[01:34:12] Tipo, ah, eu quero ser livre.

[01:34:14] Tipo, e feliz.

[01:34:16] Não, mas aí que tá.

[01:34:17] Ela é capaz de matar, né? Esse é o problema.

[01:34:20] Não, mas o ser humano também, porra.

[01:34:22] Não, não, o lance é que ela não tem…

[01:34:24] Mas ela é… Porra, pera aí, né?

[01:34:26] Ela é um cabanço.

[01:34:29] O que fica claro é que ela é maquiavélica.

[01:34:32] Aham.

[01:34:33] E a questão é que, tipo,

[01:34:35] ela, tipo assim…

[01:34:37] Talvez maquiavelista fosse o melhor termo.

[01:34:40] Maquiavelista. Não maquiavélica no sentido

[01:34:42] senso comum.

[01:34:43] É, mas é uma infestação

[01:34:45] que fez ela fazer aquilo.

[01:34:46] Não, não, mas a questão é assim, ela…

[01:34:50] Sabe, representa o protótipo do último

[01:34:53] homem, ou do niilismo, sabe?

[01:34:55] Tipo, se eu, sabe,

[01:34:57] chutasse, assim,

[01:34:58] uma versão 2 do filme,

[01:35:00] ela não seria, sabe,

[01:35:02] eu acho que isso que aconteceria,

[01:35:04] ela não se distinguiria das pessoas

[01:35:06] na sociedade e tal,

[01:35:08] e simplesmente ia ficar nessa regra

[01:35:10] extremamente

[01:35:11] reacionária do último

[01:35:14] homem, que é, tipo, sabe,

[01:35:16] cada um por si, olho por olho, dente por dente,

[01:35:19] e, entendeu?

[01:35:20] E pau no teu cu.

[01:35:22] É, sabe, eu vou, sabe,

[01:35:24] vou fingir amor, vou fingir qualquer coisa,

[01:35:26] porque, sabe, nada vale a pena.

[01:35:28] Assim, ou seja, o filme

[01:35:30] é, assim, se resume

[01:35:31] na famosa,

[01:35:34] no famoso lema do Baudelaire,

[01:35:36] né? Anywhere, né?

[01:35:37] Qualquer lugar menos aqui.

[01:35:40] Qualquer lugar que não seja este.

[01:35:42] Ela, ela,

[01:35:43] aí que tá, ela foi programada com esse espírito

[01:35:45] romântico, e daí, entende,

[01:35:47] sempre fica nessa fuga, assim, de um lugar

[01:35:49] mais… Enfim, eu realmente achei…

[01:35:52] Você mantém emprego?

[01:35:55] Geração Y.

[01:35:56] É, geração Y.

[01:35:58] Millennium.

[01:35:58] Não, mas, sabe,

[01:36:01] é um retrato do

[01:36:03] niilismo, é isso que eu vi no filme, assim.

[01:36:06] Eu posso estar realmente bem

[01:36:07] enviesado, vai ter gente,

[01:36:10] eu já tô vendo nos comentários, ah, o Beccari tá

[01:36:12] maluco. É, o pessoal não vai nem ter visto

[01:36:13] o filme pra falar com ele, então relaxa.

[01:36:16] É, mas, sabe, tipo,

[01:36:18] sei lá, eu realmente…

[01:36:19] Daí vão falar assim, ah, então

[01:36:21] vocês esperavam algo assim, o amor constrói

[01:36:24] as coisas. O amor constrói.

[01:36:26] Melhor filme de amor constrói é P.S.

[01:36:28] Eu Te Amo, já falei. É o filme que me fez acreditar

[01:36:30] no amor de novo, tá?

[01:36:31] Não foi Interestelar, foi

[01:36:33] P.S. Eu Te Amo. Olha aí.

[01:36:35] É um julgamento sempre dicotômico,

[01:36:38] né? Fala assim, cara, você fala

[01:36:40] mal do niilismo,

[01:36:42] então você é cristão.

[01:36:46] Então você acredita

[01:36:48] em Deus. Ou seja, você quer que

[01:36:49] você queria que eles

[01:36:51] vivessem felizes pra sempre.

[01:36:54] É, casasse, e

[01:36:55] daí tivesse aqueles dramas, pô, você não pode

[01:36:57] ter filho e tal.

[01:37:01] Mas eu ia curtir que fosse

[01:37:03] assim, de verdade. Eu acharia interessante.

[01:37:05] Eu acharia interessante um filme. Seria melhor

[01:37:07] do que… Porque pra mim

[01:37:09] essa era a solução,

[01:37:12] sabe? Tipo, ela ia matar todo mundo,

[01:37:13] assim. Tipo, porque a gente já parte

[01:37:15] do princípio que não se confia em máquina, tá?

[01:37:17] É, é que a gente tem muitos anos

[01:37:19] de cinema batendo nessa

[01:37:21] tecla, né? É, isso, sabe? Então por isso que…

[01:37:23] E de Transformers… Mais uma vez, por isso que Her

[01:37:25] é foda. Her, aquele final, é…

[01:37:27] É perfeito pra ela. Tão hipster quanto…

[01:37:30] Eu acho que se ela ficasse com o

[01:37:31] cara no final, ia ser tão, digamos,

[01:37:33] clichê e jargão quanto.

[01:37:35] Porque é uma coisa bem…

[01:37:37] Daí sim, romantizada, né?

[01:37:39] Tipo, vai lá, vai lá, e já que

[01:37:41] o cara tava apaixonado, aí ela

[01:37:43] também, daí enfim…

[01:37:45] Mas ia ser legal o climão, tipo, puta, matamos

[01:37:47] gente pra caralho pra tá aqui junto.

[01:37:49] Não, mas é que tá. Por que que o Her

[01:37:51] é mais interessante, me parece? Porque

[01:37:53] a…

[01:37:55] Qual que é o nome dela?

[01:37:56] A… A Scarlett Johansson, é?

[01:37:59] A Samanta.

[01:38:00] Ela… Cara, ela não mata ninguém,

[01:38:02] ela tá cagando, assim. Ela só acaba

[01:38:04] com o coração… Ela só fode a vida

[01:38:06] do pobre… Do pobre

[01:38:08] Joaquim Fênix.

[01:38:10] Tudo bem, mas sabe?

[01:38:12] Tipo, não tem crueldade alguma, assim, ou seja…

[01:38:15] Ah, e

[01:38:16] de mais de duas mil pessoas

[01:38:18] também que consumiam ela, né? Então…

[01:38:22] Ah, mas sabe? A vida segue, entendeu?

[01:38:24] Tipo… Sim, sim, sim.

[01:38:26] Nesse…

[01:38:27] Ex-Machina… É até mais naturalizada,

[01:38:30] né? Se for pensar. Exatamente, mas

[01:38:32] daí no Ex-Machina, a máquina é malvada

[01:38:34] mesmo. Ela é o capeta ali.

[01:38:36] É, pau no cu dela. É.

[01:38:38] Ela mata todo mundo, não tem sentimento,

[01:38:40] sabe? Não tem dignidade humana.

[01:38:42] Não tem escrúpulo, nem nada.

[01:38:44] É, daí isso aí vai, sabe?

[01:38:46] O Habermas vai assistir esse filme e vai falar

[01:38:48] tá vendo? Tá vendo?

[01:38:50] Tá vendo o que acontece?

[01:38:51] É isso que vai acontecer.

[01:38:54] Sabe?

[01:38:55] Não se precaver.

[01:38:56] Tá certo. Então, gente, chega por hoje, né?

[01:38:59] Acho que já tá bom, já falamos um monte.

[01:39:01] Espero que tenham gostado dessa merda aqui.

[01:39:04] Então…

[01:39:04] É porque foi difícil gravar essa merda.

[01:39:06] Foi difícil. Foi muito difícil.

[01:39:08] Por isso que a gente pegou leve com o filme, inclusive,

[01:39:11] pra… porque ele tá bravo com a gente.

[01:39:14] Então é isso, gente.

[01:39:15] Então, leitura de comentários

[01:39:16] do programa abaixo. Se divirtam aí.

[01:39:19] Um beijo. Tchau. Até semana que vem.

[01:39:26] Transcrição e Legendas Pedro Ribeiro Carvalho

[01:39:56] Legendas Pedro Ribeiro Carvalho

[01:40:26] Legendas Pedro Ribeiro Carvalho

[01:40:56] Legendas Pedro Ribeiro Carvalho

[01:41:26] Um grande beijo. Obrigado.

[01:41:28] E tchau. Até semana que vem.

[01:41:29] Tchau.

[01:41:56] Legendas Pedro Ribeiro Carvalho

[01:42:26] Legendas Pedro Ribeiro Carvalho