#13 - O Estado de Vigilância
Resumo
O episódio discute o estado de vigilância em que vivemos, onde nossos dados são coletados por corporações e compartilhados com autoridades. Os participantes exploram como essa realidade é normalizada e como a paranoia em relação à segurança é instrumentalizada para justificar medidas de controle social.
A conversa analisa o filme Dr. Strangelove, de Stanley Kubrick, como uma sátira sobre a paranoia bélica e a automatização da política durante a Guerra Fria. O filme mostra como a fé cega em protocolos e sistemas automatizados pode levar ao desastre, e como figuras de poder discutem o fim do mundo com uma frieza burocrática. O personagem do Dr. Strangelove, um cientista nazista recrutado pelos EUA, simboliza a confluência perversa entre diferentes ideologias de controle.
Em seguida, o episódio critica Minority Report, de Steven Spielberg, por normalizar a ideia de um sistema policial preditivo. Os participantes argumentam que o filme falha em criticar as estruturas racistas e genocidas por trás de tais sistemas na vida real, como o profiling e a criminalização de populações negras e pobres. A discussão conecta a ficção com casos reais no Brasil, como o Plano de Metas no Rio de Janeiro, que criou uma máquina de prender pessoas nas periferias.
Por fim, o episódio explora como os algoritmos das redes sociais e os modelos matemáticos de “segurança” não são neutros, mas refletem e amplificam preconceitos estruturais da sociedade. Eles radicalizam discursos, produzem dados enviesados e criam um ciclo de criminalização e violência. A tecnologia, longe de ser uma solução imparcial, é um espelho e um amplificador das desigualdades e do racismo já existentes.
Indicações
Documentarios
- The Great Hack — Documentário da Netflix sobre o escândalo da Cambridge Analytica, mostrando como dados pessoais foram usados para manipulação política em grande escala.
- The Social Dilemma — Documentário criticado no episódio por reduzir os problemas das redes sociais a uma questão de vício individual, ignorando aspectos estruturais de controle e opressão.
Filmes
- Dr. Strangelove — Filme de Stanley Kubrick satirizando a paranoia nuclear da Guerra Fria, a automatização da política e a confluência bizarra entre ideologias aparentemente opostas.
- Minority Report — Adaptação de Steven Spielberg de um conto de Philip K. Dick, criticada no episódio por normalizar a ideia de policiamento preditivo e suavizar as críticas sociais do material original.
Livros
- Weapons of Math Destruction — Livro de Cathy O’Neill (citado como ‘Weapon of Meth Destruction’, provavelmente um erro de pronúncia) que explora como algoritmos e modelos matemáticos amplificam desigualdades e preconceitos na sociedade.
Pessoas
- Nina da Hora — Cientista da computação e pesquisadora recomendada para seguir no Twitter, por seu trabalho crítico sobre algoritmos, racismo tecnológico e o documentário The Social Dilemma.
Linha do Tempo
- 00:00:00 — Introdução ao estado de vigilância e perda de privacidade — Os hosts introduzem o tema da vigilância digital, onde celulares ouvem, buscas são registradas e dados são compartilhados entre corporações e autoridades. Questionam quem são essas autoridades e o que fazem com esse controle. É estabelecido o tom de que a paranoia atual é, na verdade, astúcia, dada a realidade da coleta massiva de dados.
- 00:02:44 — Cambridge Analytica, The Great Hack e a ilusão do consentimento — Mencionam o documentário The Great Hack sobre o escândalo da Cambridge Analytica, destacando como dados pessoais são compartilhados mesmo sem consentimento direto, através de conexões de amigos em redes sociais. Discutem a sensação de cinismo e derrota diante dessa realidade, onde as pessoas sabem dos riscos mas sentem que a batalha pela privacidade já está perdida.
- 00:03:23 — Rastreamento de contatos (Contact Tracing) na pandemia e a caixa de Pandora — Usam o exemplo dos sistemas de rastreamento de contatos para Covid-19 para ilustrar como tecnologias de vigilância são introduzidas em momentos de crise e dificilmente são desativadas. Argumentam que o acesso concedido às autoridades e corporações não será revogado, normalizando um novo patamar de invasão de privacidade sob o pretexto da segurança.
- 00:04:54 — Crítica ao documentário ‘O Dilema das Redes’ (The Social Dilemma) — Criticam o documentário The Social Dilemma por reduzir o problema das redes sociais a uma questão de vício individual, ignorando aspectos estruturais como o uso de dados para controle social, moldagem da sociedade e opressão. Recomendam seguir a pesquisadora Nina da Hora para uma análise mais profunda sobre o tema.
- 00:08:09 — Análise do filme ‘Dr. Strangelove’ e a paranoia automatizada — Iniciam a análise de Dr. Strangelove, de Stanley Kubrick, destacando-o como uma sátira sobre a paranoia bélica e a fé cega em instituições e protocolos automatizados durante a Guerra Fria. Discutem a genialidade de Kubrick em retratar a burocracia do apocalipse e o talento de Peter Sellers em interpretar múltiplos papéis, incluindo o presidente dos EUA e o cientista nazista Dr. Strangelove.
- 00:17:40 — A solução final eugênica em ‘Dr. Strangelove’ e a ponte para o controle social — Discutem o clímax do filme, onde o Dr. Strangelove propõe um programa de computador para selecionar indivíduos (com foco em mulheres ‘bem afeiçoadas’) para repovoar o mundo em bunkers após o holocausto nuclear. Esta cena é vista como a realização de um projeto eugênico nazista através da matemática, servindo de ponte perfeita para discutir sistemas preditivos de controle social como em Minority Report.
- 00:20:01 — O general paranoico como produto do sistema, não uma exceção — Debatem a ideia de que o general paranoico que inicia o conflito em Dr. Strangelove não é uma anomalia, mas o produto ideal do sistema militar-industrial. Da mesma forma, argumentam que eleitores radicais e disseminadores de fake news são o produto final pretendido pelas engrenagens das redes sociais, não uma distorção delas.
- 00:24:49 — Do ‘missile gap’ ao ‘mineshaft gap’: a paranoia que alimenta o complexo industrial-militar — Explicam a cena em que um general fala sobre o ‘mineshaft gap’ (medo de ter menos minas/bunkers que os soviéticos), parodiando o discurso real do ‘missile gap’ usado para justificar gastos militares exorbitantes. Conectam isso ao lobby da indústria bélica, que depende de uma paranoia constante para se sustentar, traçando um paralelo com a militarização da polícia no Rio de Janeiro.
- 00:31:32 — Crítica ao filme ‘Minority Report’ e sua normalização da vigilância preditiva — Introduzem Minority Report como um exemplo de filme que normaliza a ideia de vigilância e controle preditivo. Criticam a decisão de Steven Spielberg de suavizar o conto original de Philip K. Dick, transformando campos de concentração em ‘tubos de ensaio’ e criando um herói cativante (Tom Cruise) para um sistema claramente fascista.
- 00:40:45 — A diferença crucial entre o conto e o filme: campos de concentração vs. animação suspensa — Destacam a diferença fundamental entre a obra original de Philip K. Dick e a adaptação de Spielberg: no conto, os ‘pré-criminosos’ são enviados para campos de concentração, enquanto no filme ficam em animação suspensa em tubos. Argumentam que essa mudança tira o peso político da história, evitando a crítica direta aos sistemas reais de encarceramento em massa e genocídio.
- 00:43:03 — ‘Profiling’, racismo científico e a realidade do policiamento preditivo — Conectam a premissa de Minority Report a práticas reais como o profiling (perfilamento) importado de Israel e usado nos EUA pós-11/09, que serve principalmente para discriminar muçulmanos e árabes. Argumentam que, no Brasil, o racismo estrutural já funciona como um sistema de ‘pré-crime’, onde pessoas negras e pobres são vistas e tratadas como criminosas em potencial, justificando a violência policial.
- 00:48:49 — Algoritmos, dados enviesados e o reforço do racismo estrutural — Discutem como algoritmos e modelos matemáticos de ‘segurança’ não são neutros. Eles são alimentados por dados produzidos por um aparato estatal racista (como o Plano de Metas no RJ) e, portanto, apenas reforçam e radicalizam a criminalização de populações negras e pobres. A tecnologia reproduz os preconceitos de seus criadores e de sua base de dados.
- 00:54:49 — Metadados, associação e a criminalização por conexão (caso Marielle Franco) — Explicam como a vigilância digital funciona com metadados (quem se conecta com quem). Relacionam isso à tentativa de criminalizar Marielle Franco postumamente através de associações falsas, mostrando como a lógica do ‘pré-crime’ e da culpa por associação é ativada por preconceitos racistas, tanto em humanos quanto em algoritmos de reconhecimento facial tendenciosos.
- 01:11:34 — A IA que virou nazista: algoritmos aprendem e amplificam nossos piores preconceitos — Citam o caso da IA da Microsoft no Twitter (Tay) que, ao aprender com interações humanas, rapidamente se tornou extremamente racista. Usam esse exemplo para reforçar que a inteligência artificial e os algoritmos não são superiores ou neutros; eles aprendem com dados humanos e, portanto, replicam e amplificam os preconceitos e desigualdades existentes na sociedade.
- 01:14:09 — Conclusão: a vigilância reforça estruturas de poder, não as combate — Concluem que os sistemas de vigilância, algoritmos e modelos matemáticos de controle social não são ferramentas neutras para resolver problemas. Pelo contrário, eles são projetados e operam dentro de estruturas de poder existentes, radicalizando ideologias racistas, classistas e genocidas. O estado de vigilância não previne crimes, mas sim produz e justifica a opressão, fechando o ciclo de violência.
Dados do Episódio
- Podcast: Popcult
- Autor: Atabaque Produções
- Categoria: TV & Film Film Reviews
- Publicado: 2020-09-22T08:30:11Z
- Duração: 01:17:53
Referências
- URL PocketCasts: https://pocketcasts.com/podcast/popcult/57529740-86a3-0138-ee33-0acc26574db2/b9d07034-5f79-4cf9-a715-1cea426d4592
- UUID Episódio: b9d07034-5f79-4cf9-a715-1cea426d4592
Dados do Podcast
- Nome: Popcult
- Tipo: episodic
- Site: https://www.spreaker.com/podcast/popcult—4416630
- UUID: 57529740-86a3-0138-ee33-0acc26574db2
Transcrição
[00:00:00] O seu celular te ouve, as suas buscas e mensagens estão registradas em servidores que você
[00:00:24] nem sabe onde ficam.
[00:00:25] Nós já aceitamos a nova realidade em que você nem sabe mais quanto da sua vida é
[00:00:31] propriedade de corporações que, por sua vez, compartilham tudo com as autoridades.
[00:00:36] Mas quem são essas autoridades e o que elas fazem com esse conhecimento e controle?
[00:00:41] Nesse episódio vamos falar de filmes que mostram um pouco disso, seja de maneira satírica,
[00:00:45] documental ou de forma a normalizar o nosso dia a dia no estado de vigilância.
[00:00:52] Como você se sente sobre isso, Orlando?
[00:00:54] Cara, tem uma máxima que eu adoro, que eu acho que sintetizei isso muito bem.
[00:01:00] Não é porque você é paranoico que eles não estão atrás de você.
[00:01:03] Exatamente.
[00:01:04] Você só é paranoico se você está errado, se você está certo, você é só astuto.
[00:01:09] Exatamente, cara.
[00:01:10] E eu acho que nesse momento nós somos pessoas astutas e os nossos ouvintes, ao final desse
[00:01:18] episódio, também se tornarão, digamos, um pouco mais astutos.
[00:01:22] Cara, mas eu sinto que essa astúcia veio para mim e para muita gente que, né, meus
[00:01:28] amigos, gente que eu acompanho na internet, veio com um grau de cinismo muito grande.
[00:01:34] Porque eu vejo, uma vez eu estava trabalhando num projeto em 2017 que tinha muito a ver
[00:01:39] com algoritmo e redes sociais e tal, e como que era tipo, era um programa de TV que ia
[00:01:47] comentar sobre isso e tal, que acabou não passando.
[00:01:50] Mas enfim, e aí eu lembro que uma discussão que a gente teve um dia lá na sala era sobre
[00:01:56] esses testes, né, de tipo qual o personagem de sei lá o que que você é, não sei o
[00:01:59] que, e tipo, todos eles existem para ficar pegando dados seus e vender por aí e tal.
[00:02:06] E aí tinha uma diretora que ela era de uma geração acima da nossa, assim já, e aí
[00:02:12] ela falou, a gente teve essa conversa e aí em algum momento a gente começou a fazer
[00:02:17] um teste desse, assim, tipo, porque pegou um de exemplo e começou a fazer no projetor
[00:02:21] assim para todo mundo ver.
[00:02:22] E ela tipo, a gente já não acabou de falar sobre como isso só existe para pegar seus
[00:02:26] dados e tal, não sei o que, e meio que a gente concordou ali os roteiristas todos de tipo,
[00:02:30] não, mas é que a gente já acha que perdeu essa batalha, então tipo, a gente sabe, mas
[00:02:34] a gente faz o teste de algoritmo, porque a gente não tem mais esperança de vencer.
[00:02:38] Isso, inclusive, tem aquele The Great Hack, né, que tá no Netflix, que é sobre o escândalo
[00:02:44] da Cambridge Analytica, de que como, na verdade, você nem, uma das coisas que fica evidente
[00:02:49] ali, até para mim isso foi uma certa surpresa, que você não precisa nem fazer esses testes,
[00:02:54] basta que um amigo seu os faça, que os seus dados são compartilhados por via disso, né?
[00:03:00] Sim, sim, é, aquelas permissões do Facebook, das redes que tem o amigo de amigos, é ali
[00:03:07] que tudo morre.
[00:03:09] Pois é, né, é o famoso, basta que um elo da corrente seja mais fraco para que a corrente
[00:03:13] toda se disfarça, né?
[00:03:14] Acho que…
[00:03:15] Exatamente.
[00:03:16] Cara, e eu tava, a gente tem um exemplo muito pontual aqui de, enquanto a gente tá gravando
[00:03:23] isso, que são os sistemas de contact tracing, né, para o coronavírus, que são os governos
[00:03:31] e as corporações, usando os dados dos celulares para ver quem cruzou, né, tipo, ah, a gente,
[00:03:39] você passou por essa pessoa, essa pessoa é diagnosticada com o Covid, ah, então a
[00:03:42] gente sabe que você pode ter carregado isso, vamos ver por onde você andou agora, para
[00:03:46] onde você pode ter levado esse vírus e tal, e que isso tá sendo vendido para a gente
[00:03:50] como ah, isso é muito importante para a segurança das pessoas, porque realmente a gente precisa
[00:03:53] controlar essa pandemia e tudo mais, mas ao mesmo tempo, é aquela questão, a gente
[00:03:58] sabe que nada volta para dentro da caixa de Pandora, né, então você permite esse acesso,
[00:04:03] você permite esse uso de tecnologia em um nível massivo, isso não para de ser usado
[00:04:09] isso não para de ser usado quando esse deixa de ser, né, as agências que lidam com isso
[00:04:14] não viram e falam assim, ah não, muito obrigado por ter nos dado o acesso, agora
[00:04:18] encerramos aqui, toma de volta toda a sua privacidade.
[00:04:21] Não, isso é, na verdade, é importante salientar que isso não, esse aplicativo é
[00:04:27] apenas um aspecto visível de um processo que já vem de antes, né, e que vai continuar
[00:04:34] você querendo ou não, porque assim, esse que é um ponto que eu acho que é…
[00:04:39] É tipo você grampear o telefone da pessoa e depois você pedir permissão, você falar
[00:04:43] assim, posso grampear o telefone?
[00:04:44] É, não, já tá tudo gravado.
[00:04:45] Aí você fala sim, e aí eu falo, ah, obrigado, eu nem entro na sua casa e já tava grampeando.
[00:04:50] Valeu, valeu mesmo.
[00:04:51] Não, mas aí tem uma coisa que é importante isso, que é bom salientar, porque tá todo
[00:04:54] mundo muito emocionado com aquele social dilema, hoje eu vou recomendar várias documentas
[00:04:59] de Netflix.
[00:05:00] Exato, a gente tá gravando, é muito louco, a gente tá gravando esse episódio que é
[00:05:04] muito sobre isso sem falar desse documentário diretamente, né, a gente já tinha planejado
[00:05:11] esse episódio antes.
[00:05:12] É, mas é que esse documentário, eu tenho críticas severas a ele e aí eu tava conversando
[00:05:16] até com uma pessoa que inclusive recomendo para nossos ouvintes que sigam, que é a Nina
[00:05:20] Da Hora lá no Twitter, que tem um trabalho ótimo sobre isso, que como esse documentário
[00:05:26] ele deixa de fora coisas essenciais no qual, assim, que basicamente ele reduz todo esse
[00:05:32] problema das redes sociais a quase uma questão ao discurso liberal sobre as drogas, né,
[00:05:37] sobre os entorpecentes, é uma coisa mais, ah, dá para se usar de forma moderada, ah,
[00:05:42] o problema é que o usuário fica capturado nisso.
[00:05:44] Não, aqui a gente tá falando de coisas como a geolocalização do seu celular fornece
[00:05:49] dados que vão ser usados para controlar a sociedade, para moldar a sociedade de uma maneira
[00:05:55] que apetece que é, digamos, desejada por grupos poderosos, né, e que ainda que isso
[00:06:01] não seja usado diretamente contra você, pode ser usado diretamente contra outras pessoas.
[00:06:06] Esse que é um ponto também, quando você falou essa coisa do cinismo, quando a gente
[00:06:10] não tem que se preocupar como nossos dados estão sendo utilizados, é porque a gente
[00:06:16] se coloca numa posição privilegiada, né, ah, isso não vai acontecer, às vezes até
[00:06:21] ilusória, né, mas sem se preocupar como nós estamos sendo utilizados para aperfeiçoar
[00:06:28] tecnologias que vão ser utilizadas, que já estão sendo utilizadas para oprimir outras
[00:06:35] pessoas, né, isso é uma coisa que no documentário fica completamente de fora, que basicamente
[00:06:39] o documentário é uma plataforma para um monte de gente rica ficar espiando a própria culpa.
[00:06:46] Vocês estão lembrando, Guns, uma coisa, o pop cult, nosso proto-pop cult foi aquele
[00:06:50] episódio sobre o Fire Festival que era basicamente isso, né?
[00:06:54] Sim, sim, foi um episódio que a gente gravou quando a gente estava bolando o pop cult,
[00:07:00] foi falando sobre como que o documentário do Fire Festival, eram dois documentários,
[00:07:04] o Fire Festival e o Fire Fraud eram grandes documentários sobre o sofrimento que se você
[00:07:11] parava dois segundos pra pensar, eu não ligo que as pessoas estão passando por esse sofrimento,
[00:07:15] esse sofrimento não é real, essas pessoas só passaram um perrengue.
[00:07:18] E as pessoas que estão lá, nossa, que coisa estranha, foram as pessoas que ganharam dinheiro
[00:07:21] e enrolaram as pessoas fazendo isso, né?
[00:07:23] Exato, é, tipo que o drama real ali que eles mostram e não exploram é, tipo, ah, toda
[00:07:28] a população local que foi posta pra trabalhar e não foi paga, né, e que teve a sua comunidade
[00:07:36] totalmente…
[00:07:37] A natureza destruída.
[00:07:38] A natureza destruída, né, seu modo de vida interferido e basicamente escravizados porque
[00:07:44] trabalharam e depois no final não foram pagos.
[00:07:46] É isso, mas o problema é o que o cara lá criou, ele falou, nossa, eu fui…
[00:07:51] Ele enganou a gente, meu, a gente achou que o Jaru ia tocar.
[00:07:54] Vai lá, quais filmes que a gente vai falar hoje, cara?
[00:07:56] Porque tem um filme bom, hoje tem um filme bom, hoje tem um filme que, como diz um amigo
[00:07:59] meu, desse filme até o Orlandinho gosta.
[00:08:02] Exatamente, tem um filme bom, então vamos começar por ele, porque ele é o primeiro,
[00:08:09] ele é um aspecto muito interessante que é esse de quem é o poder, né, quando a gente
[00:08:13] fica falando, tipo, ah, o sistema tem acesso a gente e os algoritmos tornam fácil a manipulação
[00:08:22] da nossa vida.
[00:08:23] Não quero fazer difícil antes, mas a gente tem um, talvez o filme de política no que
[00:08:31] eu gosto de chamar de Cuxia da Política, né, que é o tipo de filme que é feito pra
[00:08:37] mostrar, tipo, é assim que os políticos pensam sobre você quando eles não estão
[00:08:42] falando com você, né, quando eles não estão ali fazendo discurso, quando eles estão ali
[00:08:48] fazendo as engrenagens da máquina girar, é assim que o poder pensa, e é o clássico
[00:08:55] do Stanley Kubrick, Doctor Strangelove.
[00:08:58] É interessante, né, primeiro que não é a música do Depeche Mode, né, mas é assim,
[00:09:05] mas eu acho que é uma coisa que é engraçado que eu sempre tive essa associação entre
[00:09:09] a música e o filme, por um motivo bem desgrúcio, mas é um dos meus filmes preferidos também,
[00:09:14] e é um filme que é muito interessante como o Stanley Kubrick, que é um sujeito que é
[00:09:20] conhecido por filmes como 2001, Laranja Mecânica, Bear Linden, ele mostrou um talento, ele tem
[00:09:27] um talento fenomenal, um timing fenomenal, você que escreve comédia, você sabe como
[00:09:32] é difícil isso, né, tipo, pra fazer comédia e também, e tem a presença do magistral
[00:09:38] Peter Sellers.
[00:09:39] É isso que eu ia falar, ele também é um ótimo diretor de comédia nessa escolha do
[00:09:45] Peter Sellers pra fazer três papéis, eu lembro, eu fico rindo, cara, cara, esse filme assim,
[00:09:52] ele é um monumento ao talento do Peter Sellers, sim, que infelizmente é um humorista que
[00:10:00] pouca gente conhece hoje em dia, né, ficou perdido, porque é muito tempo, morreu na
[00:10:05] década de 90, se eu não me engano, pois é, e já tava no fim da carreira, né, a gente
[00:10:11] ainda, eu sinto que eu botei em algum episódio pra gente falar, eu não sei se caiu ou se
[00:10:16] tá bem pra frente, assim, mas do outro filme, muito além do Jardim, né, tá assim, tá
[00:10:21] num episódio que a gente vai chegar, eu só não sei se é nessa temporada ainda, provavelmente
[00:10:25] nessa temporada a gente vai chegar lá, mas a gente vai falar mais de Peter Sellers, então.
[00:10:30] Mas aqui nessa casa louvamos Peter Sellers, né, cara?
[00:10:34] Exatamente.
[00:10:35] Mas então, Doctor Strange Love, pra quem não sabe, é um filme sobre o que é, basicamente
[00:10:42] a história, o que que aconteceria se sem querer os Estados Unidos acabassem jogando
[00:10:48] uma bomba atômica na Rússia, né, o filme se passa na época da Guerra Fria, ainda,
[00:10:52] União Soviética, que a gente tá falando, mas, e aí havia aquela tensão nuclear e
[00:10:57] os Estados Unidos, como muita gente pode saber ou não, eles têm, como outras nações com
[00:11:03] bomba nuclear têm, eles têm esses os bombardeiros, né, que ficam voando, aviões que ficam voando
[00:11:08] o tempo inteiro, pra, no caso, de você precisar derrubar uma bomba.
[00:11:12] Hoje em dia, eu não sei quanto eles usam esses aviões, mas tem os submarinos atômicos
[00:11:15] que existem por causa disso também, que são submarinos que são capazes de fazer esse
[00:11:18] tipo de bombardeio a qualquer momento, estão sempre aí navegando pelas águas desse vasto
[00:11:23] mundão.
[00:11:24] E aí, basicamente, o que acontece é o seguinte, um general paranoico numa base militar lá
[00:11:29] nos Estados Unidos decide jogar o código de tipo, vamos bombardear aí os russos.
[00:11:36] E aí, você tem o avião lá que recebe as ordens, eles tentam confirmar várias vezes,
[00:11:40] tipo, é isso mesmo, é o plano R, tal, não sei o quê, e aí, é isso, então pá, beleza,
[00:11:46] eles iniciam o processo, começam a voar em direção ao alvo e aí, eventualmente, chega
[00:11:51] na sala de guerra lá do Pentágono, com o presidente dos Estados Unidos e tal, que
[00:11:55] é o Peter Sellers, é um dos personagens do Peter Sellers, e aí todos aqueles generais,
[00:11:59] aquela cena que eu sinto que até hoje a estética dessas cenas de tipo, emergência governamental,
[00:12:05] elas todas se baseiam não no que é de verdade, mas elas todas estão tentando recriar a cena
[00:12:09] do Dr.
[00:12:10] Shane Love, sabe?
[00:12:11] Nossa, cara.
[00:12:12] É uma estética muito impactante, assim, e que perdura até hoje, mas enfim, aí estão
[00:12:16] todos os generais lá na sala de guerra, naquela coisa de, tá aí, o que a gente vai fazer?
[00:12:20] Se a gente jogar a bomba neles, eles vão jogar a bomba na gente, e agora?
[00:12:23] E não sei o quê, a gente consegue impedir?
[00:12:25] Não, porque o plano foi criado pra você não conseguir, não, mas aí a gente tem um jeito,
[00:12:29] tá, mas a gente não consegue se comunicar com eles, não sei o quê, e aí começa a
[00:12:32] virar, e aí, tipo, chega o embaixador da União Soviética, aí ele, o presidente
[00:12:36] no telefone com o presidente da União Soviética, não, então, Dimitri, é o seguinte, não,
[00:12:41] eu sei, mas vocês não podem derrubar os nossos aviões aí, eles tentando resolver aquela,
[00:12:46] essa burocracia, como se fosse um erro de tiputes, a gente mandou pro lugar errado o
[00:12:50] CDEC.
[00:12:51] Não, tem várias coisas envolvidas, a primeira que eu acho que é interessante, né, como
[00:12:56] a, que eu acho que diz muito sobre o momento que a gente vive agora, né, que é sobre como
[00:13:03] depositamos uma fé quase que inabalável, diria inabalável no que se chama das instituições
[00:13:11] do mundo moderno, porque o que esse filme faz, ele é um deboche imenso sobre a ideia
[00:13:17] de Estado-nação, sobre a ideia de política, sobre a própria ideia de paranoia, né, sobre
[00:13:22] a própria ideia dos regimes políticos que ali estavam competindo um contra o outro,
[00:13:26] porque é uma coisa que é interessante, por isso que aí daí vem o nome do Dr.
[00:13:29] Strangelove, né, de que como tanto os comunistas ali, os soviéticos, aquele período ali,
[00:13:35] e os liberais norte-americanos, em determinado momento eles chegam num consenso com o nazista,
[00:13:42] né, assim, cara.
[00:13:44] Ah não, então, mas isso é uma coisa muito legal que eu queria puxar, eu não sou o maior
[00:13:47] fã do Stanley Kubrick como diretor, assim, e isso ofende muito meus amigos que trabalham
[00:13:53] com o sistema, mas eu tô aqui pra te ofender, né, toda semana de uma maneira diferente,
[00:13:58] né, mas eu acho que ele é um cara, de novo, voltando pra aquela nossa frase do começo,
[00:14:05] ele é um cara muito astuto, ele é um cara que botava no trabalho dele, o último filme
[00:14:10] dele, né, o De Olhos Bem Fechados, é muito sobre isso também, ele é um cara que sacava
[00:14:13] muito, ele tinha as paranoias certas, assim, de como que, e ele tava muito ligado, assim,
[00:14:18] de tipo, como que o poder manipulava as pessoas e tal, por isso que tem aquela teoria da conspiração
[00:14:23] de tipo, ai, o Kubrick dirigiu o falso, o falso pouso na Lua e tal, que eu não compro
[00:14:30] essa ideia, mas assim, o…
[00:14:31] Seria maravilhosa se fosse verdade.
[00:14:32] Seria maravilhosa se fosse verdade, mas ele era um cara que tava muito ligado, assim,
[00:14:36] em como que o governo americano, né, manipulava as pessoas e como que a elite no geral, inclusive
[00:14:42] a elite de Hollywood ali que ele conhecia, se aproveita, né, do seu poder pra fazer
[00:14:47] do mundo o seu brinquedo.
[00:14:48] E ai, é muito astuto ele ter o personagem do Dr Strindlove, que é esse cientista, entre
[00:14:56] aspas, nazista, que trabalha no governo americano, porque na verdade essa é uma realidade muito
[00:14:59] forte na época que é, assim que acaba a segunda guerra mundial, o governo americano
[00:15:04] ela recruta muitos nazistas, a Nasa, né, só existe porque ela é construída nas costas
[00:15:11] do trabalho de engenheiros de propulsão nazistas, porque os Estados Unidos falaram, não, a gente
[00:15:18] precisa desses alemães ai pra gente vencer a União Soviética na corrida espacial, e
[00:15:23] perderam a corrida espacial.
[00:15:24] Não, e tem uma, vamos, é fundamental abrir uma aspas ai para a atuação do Peter Sellers
[00:15:30] com o Dr Strindlove, porque é isso, ele vem com…
[00:15:34] Inclusive, eu não lembrava, eu revi o filme pro nosso episódio, eu não lembrava o quão
[00:15:41] no fim do filme o Dr Strindlove aparece.
[00:15:44] Exato, né, e eu acho que ele vem nunca crescendo, porque você tem o primeiro, o papel com o
[00:15:47] Peter Sellers, bem ele mesmo, né, que ele é um personagem, é um tenente lá da base
[00:15:53] que tá emitindo…
[00:15:54] É um tenente britânico que fica na base, né.
[00:15:56] Que tá emitindo a ordem, né, a ordem R pro bombardeio, e ai depois chega, ele vira
[00:16:01] o presidente norte-americano, né, com uma, assim, descaracterizados, uma careca-fá.
[00:16:08] É, um papel muito mais suave, né.
[00:16:10] E ao mesmo tempo, é muito preciso, porque tem um momento em que, como é que toda, é
[00:16:14] impressionante isso, como toda política internacional começa a ser resolvida num telefonema dele
[00:16:19] pro presidente soviético, onde o presidente soviético tá bêbado, e ai ele fica assim,
[00:16:25] e a gente fica meio que discutindo em relação, não, Dimitri, eu não te ligo só quando
[00:16:29] você está com problema.
[00:16:31] Não é só quando eu quero alguma coisa.
[00:16:32] Não, pode falar com você, Dimitri.
[00:16:34] E ai ele vem no final, vem num crescendo, e aparece o Dr. Osteen de Love, e quando ele
[00:16:38] aparece mesmo, de fato, pro ouvinte que não viu o filme ter uma ideia, ele tem um hábito
[00:16:44] que ele tá numa cadeira de rodas, né, ele tem, como se ele tivesse alguma, algum tipo
[00:16:48] de restrição, de movimento e tal, só que tu vai ver conforme ele vai crescendo o discurso
[00:16:53] dele pro, uma solução nazista, pra coisa toda, ele vai se melhorando, né, a, a, a,
[00:17:00] e ele tem o braço dele, ele fica tentando segurar o braço dele, porque o braço dele
[00:17:03] fica tentando fazer a solução nazista o tempo todo, né, ele tem que ficar lutando
[00:17:07] contra o braço.
[00:17:08] Sim, ele parece ter uma paralisia lateral, mas depois você vê que na verdade é porque
[00:17:11] aquela mão tá tentando, é a mão do lado nazista, assim, que tá tentando, mas é,
[00:17:16] ele tá numa cadeira de rodas, e ai tem aquela hora que ele, ele grita, minefield, I can walk,
[00:17:22] it’s a miracle, ele fica chamando o presidente americano de minefield, sem querer.
[00:17:25] Aí ele vai se corrigindo, né, ele vai se corrigindo, não minefield, não mypresident,
[00:17:28] aí depois tem uma hora que no final o milagre, né, I can walk, cara, é muito bom, cara,
[00:17:34] é muito bom, deixa eu falar, não, mas assim, porque eu acho que, mas pra voltar pra história
[00:17:40] do filme em si, é porque, não sei se o ouvinte captou bem, porque esse é um filme que hoje
[00:17:44] em dia as pessoas não assistem tanto quanto deveriam, eu acho, mas é porque, basicamente
[00:17:50] tem um general que só emite uma ordem, e aí o problema todo que é essa ordem de soltar
[00:17:54] uma bomba lá na união soviética, vai, vai, como é que é, é, é, trigger?
[00:18:01] Como é que é, vai…
[00:18:03] Iniciar um processo de fim do mundo, né, porque tipo, os russos tem o protocolo pra
[00:18:07] responder a um ataque nuclear.
[00:18:08] Que é automático.
[00:18:09] Que é automático e que basicamente, tipo, é isso, ia detonar um monte de bomba e a
[00:18:13] atmosfera inteira do mundo ia ficar totalmente radioativa e contaminada e você, né, você
[00:18:19] precisaria esconder as pessoas num, num uns bunkers por 100 anos.
[00:18:23] Que é a solução final do Dr. Strangelove, né?
[00:18:26] Olha o terremoto que você usou aí, muito apropriado pro Dr. Strangelove, né?
[00:18:30] Sim, exatamente, não foi por coincidência.
[00:18:32] Exato, não, e aí a solução dele também é muito bom,
[00:18:37] porque ela é claramente, tipo, a solução ideal na cabeça dele,
[00:18:41] e talvez na de vários poderosos,
[00:18:43] mas ele tenta fingir que, tipo, é um grande conflito, um grande dilema.
[00:18:46] Nossa, e daí essa cena é muito boa.
[00:18:48] A gente provavelmente ia ter que ter dez mulheres pra cada homem,
[00:18:50] porque, enfim, você precisa inseminar muitas mulheres pra repopular o mundo,
[00:18:54] e elas, bom, elas precisariam ser muito atraentes,
[00:18:58] porque você precisa estimular esses homens que vão ter que, né…
[00:19:01] Fazer sacrifícios.
[00:19:02] Se dedicar muito a esse trabalho de inseminação.
[00:19:07] Não, e é muito doido, porque eles ficam…
[00:19:09] Essa cena é muito boa, né, cara, que ele começa a dar a solução final ali, né?
[00:19:13] E depois a gente vai voltar pra isso, porque é a ponte pro segundo filme,
[00:19:16] que ele vai… E os personagens ali…
[00:19:19] Ah, mas então os homens teriam que abdicar da tal monogamia, né?
[00:19:24] Ele é um sacrifício, né, em nome do coletivo.
[00:19:28] Mas e um dos pontos interessantes…
[00:19:31] Acho que vou voltar um pouco aqui,
[00:19:33] porque eu acho que um dos pontos interessantes do filme
[00:19:36] é que justamente toda essa fé numa automatização da própria política, né?
[00:19:44] Porque tudo isso é feito baseado em programas matemáticos,
[00:19:48] protocolos, né, programas de computador,
[00:19:51] previamente estabelecidos por engenheiros,
[00:19:53] previamente estabelecidos por, sei lá, por máquinas.
[00:19:57] É cridocrata.
[00:19:58] É cridocrata por máquinas. Como todo o processo vira, né,
[00:20:01] ele se torna automatizado ao ponto de que uma falha não prevista,
[00:20:08] que é assim, cara, e o que aconteceria se um general ficasse louco?
[00:20:11] E esse general fica louco, é muito interessante porque esse general fica louco,
[00:20:14] no melhor estilo…
[00:20:16] É interessante que você vê esse general maluco no filme,
[00:20:18] que gera todo o problema e aí tu pensa assim,
[00:20:20] cara, quantas pessoas a gente não conhece que estão exatamente nesse processo
[00:20:26] hoje em dia, essa coisa de fake news, né?
[00:20:27] Cara, o general paranoico,
[00:20:30] ele é um retrato muito bom do americano médio paranoico conservador,
[00:20:36] que é muito parecido com o que a gente tava falando,
[00:20:38] são as paranoias erradas, assim, né, porque, por exemplo,
[00:20:40] o Kubrick bota na boca desse personagem,
[00:20:43] é muito bom dele fazer isso assim,
[00:20:46] porque pra mim retratou exatamente quem é esse cara.
[00:20:49] Ele bota aquele discurso que é uma conspiração dessas,
[00:20:52] do que a gente chama aqui no nosso programa, da paranoia errada,
[00:20:55] que é quando você não tá sendo astuto, você tá sendo paranoico,
[00:20:57] que é o flúor na água.
[00:20:58] Ele diz, ué, eles estão mexendo com os nossos fluídos corporais,
[00:21:03] porque você não tem escolha, você tem que tomar água floretada, não sei o quê, e tal.
[00:21:08] E isso é parte da paranoia desse cara, tipo, tá vendo?
[00:21:11] É, as autoridades estão mexendo com a gente, e tal.
[00:21:15] E ele claramente olhando assim, é aquela coisa, né,
[00:21:17] não consegue ver a floresta porque tá olhando pra árvore.
[00:21:20] E aí ele acha que o flúor é o grande problema, e tal.
[00:21:23] Mas é tipo assim, não, essa sua paranoia é a paranoia errada.
[00:21:25] A sua linha de raciocínio é boa, você tem que desconfiar das coisas,
[00:21:29] não é você que morreu no pântano errado aí nessa.
[00:21:34] Então, mas aí é isso, aí é o cara desinformado, como você falou, assim.
[00:21:38] E aí é muito assustador, na nossa época, quando a gente vê
[00:21:40] essas grandes massas lá apoiando o Trump,
[00:21:43] e as grandes massas que espalham fake news e apoiando o bolsonarismo aqui,
[00:21:49] são pessoas que estão sendo levadas a aquele mesmo ponto de desespero ali, né?
[00:21:53] É, tem duas coisas aí, eu não acho que nem desinformado a palavra,
[00:21:58] é informados, por outro lado, né, só informados.
[00:22:00] É o aquele, é o termo, na verdade, que tem, é o misinformation, né?
[00:22:04] É você passar a informação deliberadamente errado pra manipular.
[00:22:08] Mas aí, tem uma coisa que eu acho que é interessante nisso,
[00:22:10] né, porque, e aí, olha a finesse do Stanley Kubrick nesse filme,
[00:22:14] porque primeiro esse general é mostrado como muito paranoico,
[00:22:17] sei lá o quê, e todo processo vai dar errado,
[00:22:19] aí tem um momento que o, quando essa situação é levada
[00:22:22] em consideração para o presidente, né,
[00:22:25] o presidente chega e fala assim, pô, mas esse sujeito é louco,
[00:22:28] aí tem um general, né, do Exército, norte-americano,
[00:22:31] e fala assim, não, olha só, não vamos tirar conclusões precipitadas, né?
[00:22:34] E aí depois de ver que a linha de ação e de pensamento do próprio Exército
[00:22:38] segue aquela direção, ou seja, aquele sujeito paranoico lá
[00:22:41] que tá na ponta mandando jogar bomba para que os soviéticos
[00:22:44] não roubem os frutos corporais dos americanos,
[00:22:48] ele é o sujeito ideal de um sistema, né, ou seja,
[00:22:52] é que nem você falar, por exemplo, do PM, do policial paranoico, né?
[00:22:58] Ele é, na verdade, ele não é um indivíduo excepcional
[00:23:02] dentro daquele sistema, esse é um ponto sempre muito crucial,
[00:23:04] a gente falou muito disso na série sobre policiais,
[00:23:06] ele não é um indivíduo excepcional, né,
[00:23:08] ele não é uma pessoa que tá ali, é uma corrupção do sistema em si, não,
[00:23:11] ele, na verdade, é um indivíduo ideal,
[00:23:12] o sistema, a estrutura daquele sistema é preparada para produzir sujeitos como eles,
[00:23:17] porque assim ele vai se tornar um sujeito próprio para realizar aquela tarefa.
[00:23:21] Então aquele general paranoico lá na ponta que manda bombardear,
[00:23:24] na verdade, ele é o desdobramento do próprio trabalho militar,
[00:23:29] do próprio serviço de inteligência, ele assim, ele é o produto final daquilo,
[00:23:33] da mesma maneira como essa população que tá aí votando no Trump,
[00:23:40] que tá aí compartilhando a madeira de piroca,
[00:23:44] tá todo nesse ambiente de fake news,
[00:23:46] eles são, digamos, o produto final das redes sociais,
[00:23:50] as redes sociais foram criadas,
[00:23:52] a engenharia delas foi criada para produzir essas pessoas,
[00:23:56] eles não são uma perversão do sistema,
[00:23:58] muito pelo contrário, eles são um sistema incorporado, né?
[00:24:01] Pois é, e esse personagem que você citou, que é o general,
[00:24:05] que é um dos primeiros que a gente vê no filme,
[00:24:07] que é o que tá, ele tá lidando com a crise do possível fim do mundo
[00:24:10] e a amante que quer que ele legitime o relacionamento com ela também,
[00:24:14] ele tem que lidar com essas duas coisas ao mesmo tempo,
[00:24:17] mas ele é o avatar, vamos dizer,
[00:24:20] pro complexo militar-industrial-americano nesse filme, né?
[00:24:23] Tem uma expressão muito boa que ele fala bem no fim ali,
[00:24:26] que é, ele fala assim, nós não podemos ter um mindset gap,
[00:24:30] que é uma expressão muito interessante
[00:24:33] que eu vou ter que tentar desenrolar rapidamente aqui, é o seguinte,
[00:24:36] eles estão falando de mineshaft, que é minas, basicamente, né?
[00:24:39] As minas subterrâneas, assim, que você usa tanto pra minerar materiais,
[00:24:44] quanto pra depositar materiais e tal,
[00:24:47] e ele tá falando, a gente vai precisar ter várias dessas minas
[00:24:50] pra esconder o alto escalão e as pessoas preserváveis
[00:24:55] que a gente quer que sobrevivam a esse apocalipse nuclear.
[00:24:58] E aí, eles começam a falar, a gente deve ter centenas de minas aqui nos Estados Unidos,
[00:25:02] a gente tem que mapear isso, mas a gente consegue, em algumas horas, mapear
[00:25:05] e descobrir pra onde mandar todo mundo e não sei o quê,
[00:25:07] e aí ele vira na paranoia que não é, que assim, é a paranoia errada,
[00:25:12] mas é a paranoia pela qual esse sistema bélico do nosso mundo funciona.
[00:25:17] Ele vira e fala assim, tá, mas como é que a gente vai garantir
[00:25:20] que os soviéticos não têm mais minas que a gente, que eles vão esconder mais gente que a gente,
[00:25:24] e aí quando a gente estiver se preparando pra sair, eles vão ter saído um pouco antes
[00:25:27] e aí eles vão matar a gente assim que a gente sair das minas,
[00:25:29] então a gente não pode ter esse gap de minas, a gente não pode ter menos minas que eles.
[00:25:34] E essa expressão, mindset gap, vem de uma expressão que tava se popularizando na época
[00:25:39] e que é usada até hoje pra justificar esses investimentos massivos
[00:25:43] no complexo industrial militar americano, que é o missile gap,
[00:25:51] que é você não pode ter menos mísseis do que o inimigo,
[00:25:54] e que hoje é muito usado contra a China, que é tipo, a China tem uma frota naval maior que os Estados Unidos,
[00:26:00] então os Estados Unidos precisam ter mais armas e mais uma frota naval maior e investir mais,
[00:26:05] e é o jeito com que, por que isso acontece?
[00:26:07] Não é só porque ideologicamente os militares são muito poderosos nos Estados Unidos,
[00:26:11] tem que lembrar quem que vence no final.
[00:26:15] Os Estados Unidos, a economia deles é totalmente sustentada
[00:26:18] nos fornecedores de armas e tecnologia do exército americano.
[00:26:23] Esse lobby, essa indústria que mantém esse pensamento vivo e que tem esse interesse
[00:26:29] que a mentalidade americana se torne totalmente, sempre bélica.
[00:26:33] Porque se você tem isso, você tem essa necessidade dos Estados Unidos de gastar…
[00:26:36] É isso, os Estados Unidos gastam dinheiro em armamento e exército e inteligência
[00:26:42] que ninguém chega perto.
[00:26:44] Então o Kubrick usa esse discurso do cara sobre as minas
[00:26:49] pra ilustrar isso, que é tipo, que essa paranoia ela tá intrínseca ao sistema
[00:26:55] porque esse sistema criou esses sanguessugas que são a iniciativa privada dos Defense Contractors
[00:27:03] e aí você leva isso, você nunca vai ter como diminuir o seu investimento,
[00:27:08] você nunca vai ter como diminuir a sua paranoia,
[00:27:11] você vai ter que sempre comprar mais arma, você tem que sempre se proteger mais.
[00:27:15] Eu ia falar, porque tem uma coisa que é importante sobre isso,
[00:27:17] porque a gente não precisa ir pros Estados Unidos.
[00:27:20] É muito fácil você acompanhar isso, por exemplo,
[00:27:23] no discurso sobre segurança pública no Brasil, especialmente no Rio de Janeiro.
[00:27:26] A partir da década de 90, quando você começa uma corrida marmentista,
[00:27:30] as polícias cariocas, elas começam a se militarizar.
[00:27:37] Pra quem não sabe, por exemplo, aqui no Rio de Janeiro você tem o Rio de Janeiro importa.
[00:27:42] Não é nem o Brasil, o Rio de Janeiro importa.
[00:27:45] Tecnologia de guerra israelense, como o famigerado caveirão,
[00:27:50] que é basicamente um tanque de guerra blindado que atravessa as periferias da cidade.
[00:27:56] Então, o Rio de Janeiro, a partir da década de 90,
[00:27:58] justamente com um discurso desse tipo,
[00:28:00] olha, eles têm mais armas do que a gente, então nós precisamos nos armar,
[00:28:05] você vai ver, por exemplo, o que é boa parte do investimento na polícia,
[00:28:10] hoje em dia aqui no Rio de Janeiro, da polícia militar,
[00:28:13] é basicamente pra comprar armamento, pra fazer, tipo assim,
[00:28:17] preparar a força policial para uma guerra.
[00:28:20] E aí que vem uma coisa, isso se reflete, inclusive, em todo esse salamaleque.
[00:28:24] Pra quem é de fora do Rio de Janeiro,
[00:28:26] imagina que você tenha passado pra essa experiência, Guilherme,
[00:28:28] quando você veio pra cá,
[00:28:29] é sempre muito gritante ver, por exemplo,
[00:28:33] carros da PM andando com o fuzil pro lado de fora e…
[00:28:37] Tamo aí, tamo nem aí, saco é?
[00:28:39] Tipo, cara, quando todo o protocolo de segurança, por exemplo, diz,
[00:28:43] você não pode dar tiro embarcado, o fuzil tem que estar na mala.
[00:28:48] Não, mas tudo isso, todo esse display de armamento
[00:28:52] é fundamental pra uma certa imaginação paranoica
[00:28:55] sobre o que é segurança pública.
[00:28:56] E aí fica uma coisa assim, e aí vem uma coisa que é um twist perverso da história.
[00:29:00] É…
[00:29:02] No Rio de Janeiro, muita gente não sabe, mas o Rio de Janeiro sempre teve…
[00:29:05] O tráfico no Rio de Janeiro sempre teve muita resistência
[00:29:09] de implementar o crack, né?
[00:29:12] Porque boa parte dos traficantes aqui
[00:29:14] sempre teve uma relação muito próxima com as comunidades.
[00:29:18] O crack, ele, como sabemos, ele causa um dano à comunidade
[00:29:24] que muitas vezes não vale a pena pelo lucro que você tem, né?
[00:29:27] E aí o que acontece?
[00:29:29] A partir da década de 90, justamente com o crescimento
[00:29:32] dessa corrida armamentista com a polícia,
[00:29:38] se torna necessário criar um sistema de financiamento mais rápido,
[00:29:42] ou seja, pra entrar mais dinheiro a todo custo
[00:29:44] para que mais armas pudessem ser compradas.
[00:29:46] Ou seja, se de um lado você teve a polícia do Rio de Janeiro
[00:29:50] investindo em armamento sem nenhuma melhora na segurança, né?
[00:29:55] Sem nenhuma melhora na segurança.
[00:29:57] Por outro lado, você teve o próprio inimigo
[00:30:01] também investindo em armamento.
[00:30:03] E pra poder investir em armamento, começou a utilizar, né?
[00:30:07] Vender crack, começou a se utilizar de algumas estratégias
[00:30:10] que foram causando danos progressivos à própria comunidade
[00:30:15] e, por sua vez, aumentando a criminalidade.
[00:30:18] Então, assim, tu vê como essa lógica da paranoia bélica, né?
[00:30:22] Ela acaba causando…
[00:30:26] É uma profecia que se cumpre, né?
[00:30:27] Porque nós temos que estar mais armados
[00:30:29] pra que não tenha mais violência.
[00:30:31] Só que aí acaba tendo mais violência,
[00:30:32] não temos que nos armar ainda mais, né?
[00:30:34] Tipo assim, se propõe uma…
[00:30:38] Se coloca numa situação onde tudo que resta é aquilo que eu já falei,
[00:30:41] uma alternativa infernal, né?
[00:30:44] Olha, vocês não querem ter uma polícia armada,
[00:30:46] ou vocês querem…
[00:30:47] Ou vocês querem uma…
[00:30:49] Ou vocês têm uma polícia armada que mata mais pessoas,
[00:30:52] ou vocês têm, ou a gente vai viver dominado pelo…
[00:30:55] Pelo banditismo, pelo tráfico de drogas, sei lá o quê.
[00:30:58] Só que pelo contrário, a gente vê que o armamento da polícia
[00:31:01] e o aumento da violência, da criminalidade,
[00:31:05] estão intricicamente ligados, né?
[00:31:07] Você não tem nenhuma estratégia que vai por fora disso.
[00:31:09] Pois é. E aí, falando…
[00:31:12] Eu adoro que você vê essa ponte com a outra face dessa autoridade,
[00:31:17] porque a gente tava falando do Dr. Stanislav, né?
[00:31:20] Do governo federal, das nações, da guerra.
[00:31:22] Mas aí, a gente puxa pra outra faceta desse mesmo poder,
[00:31:26] dessa mesma ideologia, que é o policiamento.
[00:31:29] E isso nos leva ao nosso segundo filme de hoje, né?
[00:31:32] Mais um filme de um diretor que eu vou dizer não sou fã, tá?
[00:31:37] Que é Steven Spielberg.
[00:31:39] Minority Report.
[00:31:41] Ai, cacete, cara.
[00:31:43] Achei uma ponte rapidinho que a gente tem que…
[00:31:45] Eu só queria deixar claro que você escolheu falar desse filme hoje.
[00:31:48] Eu não tinha botado esse filme na lista,
[00:31:50] e você engendrou o germe da própria derrota,
[00:31:53] porque você sofreu vendo essa porcaria.
[00:31:54] É porque eu gosto muito do conto original, né?
[00:31:56] E o conto original é interessante,
[00:31:57] porque ele vai muito na linha do Dr. Stanislav, mas o…
[00:32:01] E a gente normalmente não usa livro aqui,
[00:32:03] porque Deus me livre de eu ter que ler alguma coisa.
[00:32:05] Mas esse é um problema seu.
[00:32:06] Eu vou aqui trazer o livro, e é isso aí,
[00:32:09] porque Tom Cruise é de fuder.
[00:32:11] Cara, mas assim, que tem uma coisa no final do Dr. Stanislav,
[00:32:16] que é essencial pra gente falar do Minority Report,
[00:32:19] que no final, quando caem as bombas todas e sei lá o quê…
[00:32:23] E aí tem aquele momento que a gente já falou que o Dr. Stanislav
[00:32:26] chega assim, não, mas vamos ter que selecionar mulheres muito bem afeiçoadas,
[00:32:31] que tenham…
[00:32:32] Ele começa a vir com um discurso
[00:32:34] de como isso vai ser feito por um programa de computador, né?
[00:32:37] Que você insere no programa de computador
[00:32:39] as características desejadas para a sociedade futura, né?
[00:32:45] E aí o programa de computador vai selecionar os indivíduos
[00:32:49] que estão aptos a irem para as minas e se reproduzir.
[00:32:53] Ou seja, ele conclui, que inclusive é o momento
[00:32:56] em que quando as pessoas concordam com isso,
[00:32:57] ele se levanta e fala,
[00:32:59] my fear, I can walk, né?
[00:33:01] Tipo, milagre acontece,
[00:33:02] porque ele realiza o processo de eugenia
[00:33:06] por via de um programa matemático insuspeito, né?
[00:33:11] Então assim, eu acho que ter essa ideia de que como a matemática,
[00:33:17] o programa de computador não é neutro,
[00:33:19] de que como ele opera uma profecia que se cumpre, né,
[00:33:24] é importante para a gente poder falar do Minority Report.
[00:33:27] Mas fala aí melhor desse filme maravilhoso.
[00:33:30] Vamos lá, esse filme aí é o filme que vocês devem lembrar,
[00:33:34] que tem os Precogs.
[00:33:35] Esse é o grande, né, o conceito que a história quer explorar ali,
[00:33:39] que é essa polícia num futuro próximo onde os carros ficaram feios.
[00:33:45] É o mundo, rapidinho, é o mundo…
[00:33:47] As pessoas mais jovens não vão lembrar do que eu estou falando,
[00:33:50] mas é o mundo onde o visual e a tecnologia do N-Gage venceu, né, cara?
[00:33:54] Exato, é.
[00:33:55] É tipo, tudo ficou meio cromado, meio arredondado.
[00:34:00] É o futuro que a gente imaginava no comecinho dos anos 2000, né, enfim.
[00:34:05] Futuro do videoclipe das Spice Girls, cara.
[00:34:07] Isso, eu estava pensando no N-Sync,
[00:34:09] mas ótimo.
[00:34:10] Mesma coisa, mesmo…
[00:34:11] Exato, mesma escola, mesma escola estética.
[00:34:14] E aí o Tom Cruise é um policial e ele usa um Kinect para mexer no computador lá,
[00:34:19] e a polícia tem esses Precogs, que são três personagens andrógenos e carecas
[00:34:27] que ficam flutuando num tanque daquele…
[00:34:30] Que é um negócio que eu queria até fazer, que é muito popular hoje em dia,
[00:34:33] você sabe, o tanque de privação sensorial?
[00:34:36] Sim, sim, sei qual é.
[00:34:37] Eu queria fazer isso, você fica flutuando na aguinha ali, tal,
[00:34:40] a aguinha em temperatura do seu corpo, você não sentir nada.
[00:34:43] Enfim, eles ficam lá flutuando nessa parada e eles têm visões do futuro
[00:34:47] de quem vai matar alguém.
[00:34:49] Então eles preveem homicídios e aí a polícia vai e prende essa pessoa, né,
[00:34:54] que, ah, você ia matar alguém amanhã, então eu vou te prender hoje,
[00:34:58] pra você não matar ninguém e assim manter a paz.
[00:35:01] E aí tudo muda quando o Tom Cruise, esse policial,
[00:35:05] ele é acusado, tipo, oh, eles preveram que você vai matar um cara,
[00:35:09] você vai matar inclusive o seu chefe amanhã, tipo, um superior lá.
[00:35:12] E ele, não, mas eu nunca faria isso.
[00:35:15] E eles, ah, mas eu não quero saber, a gente vai prender você agora.
[00:35:17] E aí ele começa, não, não, não, assim não.
[00:35:19] E aí ele começa a fugir e destruir tudo pela frente,
[00:35:23] porque ele é o herói do filme, então ele pode.
[00:35:26] E aí ele finalmente questiona esse sistema de, tipo, aí,
[00:35:30] você pode manipular as paradas aí pra você prender quem você quiser, né,
[00:35:34] quando você não tem que ter evidências de nada.
[00:35:36] E aí a moral do filme é, tipo, olha só,
[00:35:40] realmente a gente não pode prender as pessoas antes delas cometerem um crime,
[00:35:44] de resto tá tudo certo.
[00:35:47] É tipo assim, é um filme, é um filme que…
[00:35:49] Por isso que eu falei no começo que a gente ia falar de filmes que normalizam a ideia.
[00:35:52] Esse filme pra mim, ele só existe pra você achar que a polícia que você tem hoje é muito boa,
[00:35:57] porque você fala assim, mas ele só prende a pessoa depois que ela já cometeu um crime,
[00:36:00] isso é ótimo.
[00:36:01] É tipo, a gente não chegou na distopia desse filme, então tá tudo bem.
[00:36:06] Ele é o contrário do Black Mirror, né,
[00:36:10] porque o Black Mirror, ele existe pra te fazer você se sentir mal.
[00:36:12] Ele tá ali pra você se sentir bem.
[00:36:15] Por causa do Spielberg, esse diretor salafrário.
[00:36:18] Então, tem várias coisas que a gente vai ter que falar nisso aí, né.
[00:36:21] Primeiro, sempre bom, é sempre uma coisa que me causa muito espanto,
[00:36:25] é como o Tom Cruise corre.
[00:36:26] Ele corre tal como um boneco, ele tem um estilo de comitinho patechado.
[00:36:30] Tem exatamente onde o Tom Cruise aprendeu a correr,
[00:36:33] e você vai ter essa revelação agora, você vai perceber que é verdade.
[00:36:37] Você lembra do Temil correndo no Trenador do Futuro 2?
[00:36:40] Sim.
[00:36:40] O Tom Cruise assistiu aquilo e falou, é assim que eu vou correr.
[00:36:43] Sim, caralho, exatamente, perfeito.
[00:36:45] E talvez seja um Temil, né, porque ele não envelhece, né, cara.
[00:36:48] É, mas isso é, não, é por causa do, ele tá num nível muito alto da sintologia,
[00:36:51] ele não pega doença.
[00:36:52] É verdade, né.
[00:36:53] Mas então, tem várias questões aí, porque…
[00:36:57] Acho que a primeira delas é aquela coisa que você fala sempre, né,
[00:37:02] como tem que construir o personagem principal como alguém que é adorável, né,
[00:37:07] como é que é a tradução melhor para a palavra, alguém…
[00:37:08] Ou likable, assim, né, ou cativante.
[00:37:11] Cativante.
[00:37:12] Porque ele é um sujeito que trabalha num…
[00:37:15] Se você parar pra pensar o que tá ali, e esse que inclusive é o tom claro do conto, né,
[00:37:20] do Philip K. Dick, é importante lembrar, esse baseia num conto chamado…
[00:37:25] Como metade dos filmes de ficção científica-americanos, né?
[00:37:27] É, uns melhores, outros não, Blade Runner, por exemplo,
[00:37:30] e Vingador do Futuro, que é um filmácio, né, do Verhoeven,
[00:37:33] que também é baseado num conto do Philip K. Dick.
[00:37:35] Tem um em laserdisc aqui, Orlan.
[00:37:37] Olha só, cara, por falar em tecnologias que não venceram, né.
[00:37:41] E isso fica do lado do seu N-Gage, o…
[00:37:44] Exatamente.
[00:37:45] E do seu Kinect, você, inclusive, você é um fã do Kinect.
[00:37:48] Eu tenho os dois modelos consumidores do Kinect,
[00:37:50] eu só não tenho o Kinect 3 lá, que é um que só existe pra uso corporativo,
[00:37:54] mas eu, inclusive, pouca gente sabe,
[00:37:57] eu gravo esse podcast no N-Gage, eu tô sidetalking todo episódio.
[00:38:00] Olha só, mas enfim, o…
[00:38:03] Então, assim, ele é um sujeito que trabalha num sistema
[00:38:05] que quando você para pra pensar é, obviamente, fascista.
[00:38:08] Ele é um sujeito, obviamente, num sistema que, assim, que oprime a população.
[00:38:14] E…
[00:38:16] Mas é um sistema que defende o cidadão de bem, Orlan.
[00:38:18] Calma, peraí, e aí tem que fazer um monte de coisinha,
[00:38:20] um monte de truquezinhos pra torná-lo, como é que é, cativante.
[00:38:24] Primeiro, dele inventa uma história de fundo,
[00:38:28] ah, ele perdeu o filho, então por isso que ele trabalha nisso,
[00:38:30] ele quer impedir que outras pessoas sofram a tradição que ele sofreu.
[00:38:32] Perdeu o filho, é a esposa, né?
[00:38:33] Não, a esposa só se divorciou dele.
[00:38:35] Ah, mas ele perdeu a mulher, exato, porque esse é um grande…
[00:38:38] Essa é uma grande falha no cinema de Hollywood, assim,
[00:38:40] o homem que perdeu o direito de propriedade é uma mulher.
[00:38:42] Isso, aí ele se torna…
[00:38:44] Tudo que ele faz se torna aceitável, né?
[00:38:48] Sim, porque ele sofreu essa grande derrota,
[00:38:49] tipo, olha, esse é o homem privado do direito de ser casado com a mulher.
[00:38:52] Inclusive, o arco de redenção dele, justamente, reataca com ela, né?
[00:38:56] Enfim, restabelecendo…
[00:38:57] O filme americano, se não termina com o beijinho…
[00:39:00] É, e estabelece o direito da família nuclear norte-americana, porque, né?
[00:39:03] Exato.
[00:39:04] Spoiler, ela tem outro filho no final, saca?
[00:39:06] Uou, então ele reconquista o poder da fertilidade.
[00:39:10] Isso, não, e aí ele retoma seu papel de macho, né, cara?
[00:39:14] Tipo, de macho reprodutor.
[00:39:15] Mas então, e aí vem uma coisa que…
[00:39:17] Tal qual o Dr. Strangelove estabelece.
[00:39:19] Exato, olha, boa analogia, boa analogia.
[00:39:22] E aí tem outro ponto, né, porque pra mostrar ele…
[00:39:25] Vamos mostrar, a única cena que mostra ele prendendo uma pessoa,
[00:39:28] ele prende um sujeito, um sujeito que pega a esposa com o amante,
[00:39:36] e vai ali matá-la, e ele chega naquele penúltimo momento
[00:39:41] que o cara já tá puxando, assim, a tesoura, ele…
[00:39:43] Ai, ele figura o cara, saca? Porque tem que ser isso.
[00:39:46] Nossa, nós não nos antecedemos ao problema.
[00:39:50] Não, nós fomos, assim, no penúltimo momento.
[00:39:51] Ele ia matar mesmo, saco é?
[00:39:53] É, é a legítima defesa.
[00:39:55] É, e aí tem um outro ponto, né, porque no filme…
[00:39:58] E esse é um detalhe crucial.
[00:40:00] Eu falei contigo que eu tava assistindo, é um detalhe crucial.
[00:40:02] No filme, as pessoas que são presas,
[00:40:04] elas vão parar em uma espécie de tubo de ensaio,
[00:40:07] onde elas ficam em animação suspensa, né?
[00:40:09] Que eu achei uma ótima homenagem, é um filme que a gente gosta muito.
[00:40:12] Eu não lembro se a gente já falou…
[00:40:14] Eu acho que a gente falou desse filme na primeira temporada,
[00:40:16] que é Demolidor com Stallone.
[00:40:18] É, eu…
[00:40:19] Em que o Wesley Snipes e ele tão congelados.
[00:40:21] A gente começou muito sobre esse filme,
[00:40:22] mas eu não sei se a gente gravou sobre ele,
[00:40:24] mas a gente vai gravar um dia, se a gente não gravou, a gente vai gravar.
[00:40:26] Se a gente não gravou, a gente vai gravar,
[00:40:27] mas eu acho que a gente cobriu ele na primeira temporada.
[00:40:29] É, mas a gente tem que voltar, é um filme que vale a pena ser revisitado.
[00:40:31] Não, esse filme tem muitos níveis pra gente analisar.
[00:40:35] Mas enfim, e aí tem uma coisa, assim, que é um detalhe crucial.
[00:40:38] No… No conto, é…
[00:40:43] As pessoas vão pra um campo de concentração.
[00:40:45] As pessoas… Porque o conto todo do Philip K. Dick,
[00:40:48] porque, assim, o Philip K. Dick era um sujeito que,
[00:40:50] talvez ao contrário do Spielberg e do Tom Cruise, sobretudo,
[00:40:53] ele era um sujeito que não tinha a sociedade norte-americana em bom apreço, né?
[00:40:57] Ele não tinha um grande simpatia por aquilo que tava se desenvolvendo ali.
[00:41:00] E uma das coisas que ele… O conto é muito sobre isso, né?
[00:41:03] De que como essa nossa paranoia por segurança,
[00:41:07] olha só, de novo, a sessão com o Dr. Swinendlove,
[00:41:10] vai acabar originando uma situação muito semelhante
[00:41:16] àquela que condenamos em um nível abstrato, né?
[00:41:22] Não, todo mundo é contra o nazismo, né?
[00:41:24] Mas aí quando pare, olha, assim…
[00:41:26] É, mas então, a nossa sociedade tá produzindo campos de concentração,
[00:41:30] as prisões são campos de concentração,
[00:41:33] a gente tenta o tempo inteiro, o poder público,
[00:41:36] transformar as favelas em campos de concentração,
[00:41:39] porque o sonho do habitante, sei lá,
[00:41:41] do habitante médio da zona sul do Rio de Janeiro era isolar as favelas
[00:41:45] e impedir que aquelas pessoas circulassem pela cidade.
[00:41:47] Ver toda essa paranoia com a relação aos arrastores,
[00:41:51] ao que acontece durante o verão nas praias do Rio de Janeiro,
[00:41:54] isso diz muito sobre essa imaginação do cidadino da zona sul carioca, né?
[00:41:59] Então, assim, o que o Filipe K. Dick leva a gente a imaginar, né,
[00:42:03] que num sistema que, se a gente pudesse, olha só,
[00:42:06] se a gente pudesse impedir os crimes de acontecer, né,
[00:42:10] como que é… O que que é impedir um crime de acontecer?
[00:42:13] No mundo em que a gente está, é prender o criminoso antes de ele cometer o ato.
[00:42:18] Quando a gente poderia impedir, sei lá, investindo na sociedade, né,
[00:42:22] tipo, investindo em medidas de segurança social, em educação, enfim…
[00:42:28] Eu não gosto dessa correlação direta, mas, enfim…
[00:42:29] Investindo na própria sociedade, investindo em outras soluções.
[00:42:32] Mas aí eu preciso fazer um paralelo muito interessante aí,
[00:42:36] que é o filme e o conto, por sua vez,
[00:42:40] eles ilustram essa ideia de, tipo, de a gente prender quem vai cometer o crime
[00:42:44] de uma maneira extremamente fora da realidade,
[00:42:48] exatamente, eu acho que pra não…
[00:42:50] Assim, no caso do filme, eu vou dizer isso, não vou dizer isso no conto necessariamente,
[00:42:54] mas no filme, é exatamente pra não criticar como isso é feito de verdade.
[00:42:58] Porque, por exemplo, o Spielberg, ele é um notório defensor do estado de Israel, né?
[00:43:03] E o que que é uma das políticas pioneiras
[00:43:09] de Israel que ela exportou pro mundo, além do caveirão,
[00:43:12] é o profiling, né?
[00:43:14] Que é a capacidade de você reconhecer o sujeito que é uma ameaça pro estado.
[00:43:19] Então, toda essa coisa que os Estados Unidos importa,
[00:43:21] depois de 2001, dessas listas, no-fly listas,
[00:43:24] pessoas que não podem embarcar no avião,
[00:43:26] pra você tentar identificar quem são os possíveis terroristas
[00:43:28] que vão sequestrar um avião ou que vão não sei o quê,
[00:43:30] e que, no final, vira só uma desculpa pra você
[00:43:33] ser racista com pessoas árabes e da região do Oriente Médio,
[00:43:40] e pessoas muçulmanas,
[00:43:42] vira cientificado, né?
[00:43:45] É tal qual o racismo científico antes dele.
[00:43:48] É uma coisa de tipo, você, e a mesma coisa que se aplica aqui ao Brasil,
[00:43:52] que é quando a gente fala, a gente condena os crimes da polícia aqui no Brasil,
[00:43:57] os milhares de assassinatos de pessoas pobres e pretas no Brasil,
[00:44:03] o quê que isso é?
[00:44:04] É você tá matando a pessoa antes dela cometer um crime,
[00:44:07] porque a gente não precisa das pessoas carecas flutuando na água.
[00:44:11] A gente tem o racismo estrutural, o classismo estrutural,
[00:44:16] determinando quem é matável e quem é o elemento que você quer remover da sociedade
[00:44:22] pra manter, entre aspas, a paz.
[00:44:25] E a paz de quem?
[00:44:26] Isso no filme é bem isso.
[00:44:28] No experimento do Philip K. Dick, fica evidente, se você consegue ler entre linha,
[00:44:34] que ele tá falando da paranoia da sociedade norte-americana,
[00:44:36] justamente sobre isso, né?
[00:44:37] E o filme tira, né?
[00:44:39] O filme, ele parece muito assim, é um caso que a gente já citou aqui outras vezes,
[00:44:44] que é o filme do cineasta que não entendeu o filme que ele tá fazendo.
[00:44:48] Não, então, ele tem uma coisa, porque isso que você falou é muito importante,
[00:44:52] porque esse discurso de genocídio preventivo,
[00:44:55] que inclusive foi muito acionado para justificar bombardeios em escolas, né?
[00:45:00] Tipo, ali na Palestina.
[00:45:02] Gente, a gente tá falando de bomba atômica aqui nos Estados Unidos,
[00:45:05] no Dr. Schindler.
[00:45:07] Qual é o único país do mundo que usou uma bomba atômica contra outro país?
[00:45:10] Não, então, aí o que acontece?
[00:45:12] Porque nessa imaginação racista das pessoas,
[00:45:16] o que tá acontecendo ali é justamente isso,
[00:45:17] estão se evitando crimes que vão vir a acontecer.
[00:45:20] E aí, assim, e de novo, assim, a gente tem o Dr. Schindler, que é um nazista,
[00:45:24] essa é a desculpa, assim, né?
[00:45:25] O nazismo começa a perseguir os judeus e os outros elementos indesejáveis,
[00:45:31] porque ele tá dizendo, tipo, essas pessoas são pares, elas,
[00:45:35] tipo, você não precisa que um judeu cometa um crime.
[00:45:38] A sua existência dele é uma ameaça ao estilo de vida da nossa nação,
[00:45:44] e aí começa a perseguição que termina no holocausto, né?
[00:45:46] É, não, é justamente isso, porque você tinha um dispositivo jurídico
[00:45:49] que permitia ao Estado alemão,
[00:45:52] que era o dispositivo que vinha do Estado prussiano, né?
[00:45:54] Dizer que aquelas pessoas eram inimigos do Estado,
[00:45:57] pela sua própria existência, você classificava elas, pré-classificava elas.
[00:46:00] Aí você falou da coisa do racismo científico,
[00:46:02] esse é um ponto que eu acho que é importante tocar.
[00:46:04] Porque a gente vai começar a falar agora dos modelos matemáticos
[00:46:06] que as pessoas acham que são neutros.
[00:46:08] Justamente, essa imaginação reforçando, essa imaginação existe?
[00:46:13] Isso é inegável, o genocídio que é cometido
[00:46:17] contra as populações pobres e pretas no Brasil,
[00:46:20] pra muitas pessoas é injustificável,
[00:46:22] porque você, ali na imaginação racista dessas pessoas,
[00:46:25] se justifica porque ali você está impedindo pessoas de cometerem crime.
[00:46:28] Morre-se uma pessoa inocente,
[00:46:30] mas morrem versas pessoas que estão cometendo crime, sei lá o quê.
[00:46:33] Tanto que, tanto que, toda vez que morre uma criança aqui no Rio de Janeiro,
[00:46:36] a primeira coisa que se faz é tentar achar algum vínculo
[00:46:40] dessa pessoa com o crime, sabe?
[00:46:42] E aí vem um ponto que é importante.
[00:46:45] Tem um trabalho de um sujeito
[00:46:48] que é notoriamente conhecido pelo seu racismo,
[00:46:51] que é o Nino Rodrigues, que foi feito no começo do século XX,
[00:46:57] ali na Bahia, a famosa Escola de Medicina Baiana.
[00:46:59] Uma das coisas que foi feita, eu acho que foi pra um aluno dele,
[00:47:03] que determinou que o comportamento homossexual,
[00:47:10] tentando usar os termos da época,
[00:47:13] era um comportamento típico das pessoas negras.
[00:47:19] Por quê? Olha como é que funciona essa questão.
[00:47:23] Porque eram as pessoas negras que eram presas por esse comportamento.
[00:47:29] Então, assim, a amostragem dele pra falar tal coisa,
[00:47:33] determinar que se tratava de uma doença
[00:47:37] das populações negras e pobres brasileiras,
[00:47:40] era porque a polícia não vai prender o sujeito rico,
[00:47:45] ele vai prender aquele sujeito que é marginalizado pela sociedade.
[00:47:49] Da mesma maneira funciona essa imaginação da sociedade
[00:47:54] sobre o que é um território perigoso.
[00:47:57] Recentemente, a gente teve um caso disso
[00:47:59] que saiu uma reportagem no G1 falando assim,
[00:48:04] ah, mostrando a maré, falou assim, bânker de bandidos.
[00:48:07] E mostrava a maré de longe.
[00:48:09] Nesse, é impressionante, né, quando você vai pensar, por exemplo,
[00:48:13] nossa, é um lugar perigoso e se invoca pras pessoas a ideia
[00:48:15] de que ali só tem bandidos e coisas do tipo.
[00:48:17] Mas quando você vai pegar o número de pessoas da maré
[00:48:21] que estão envolvidas com a criminalidade,
[00:48:24] diretamente envolvidas com a criminalidade,
[00:48:25] e dividir pelo número de pessoas que ali vivem,
[00:48:27] você vai ter uma taxa muito baixa.
[00:48:29] Agora, se você for num prédio do Leblon,
[00:48:31] especialmente em determinados endereços,
[00:48:33] você vai ter prédios inteiros de pessoas
[00:48:35] que têm alguma pendenga com a justiça.
[00:48:38] Cara, eu vou te falar que tem pelo menos um condomínio na Barra da Tijuca
[00:48:43] que a gente está vendo que também é o caso, né?
[00:48:45] Pois é, né, rapaz, que coisa, né?
[00:48:47] Então, assim, olha como é que funciona essa distorção.
[00:48:49] Então, você tem, você cria um sistema policial
[00:48:52] que vai se voltar pra esse tipo de coisa, pra assim,
[00:48:57] olha só, essas áreas aqui, por conta da nossa concepção racista,
[00:49:01] nossa imaginação racista,
[00:49:02] são áreas dominadas pela criminalidade,
[00:49:05] enquanto outras áreas não são.
[00:49:07] E aí, você tem toda uma pré-condição de conceber isso.
[00:49:10] E vamos investir num aparato policial dentro dessas áreas,
[00:49:14] que, por sua vez, vai precarizar ainda mais a situação das pessoas ali
[00:49:19] e vai produzir mais dados sobre criminalidade.
[00:49:23] Por que eu estou falando isso?
[00:49:23] Por exemplo, na década de 90 aqui no Rio de Janeiro,
[00:49:25] pra quem não sabe, especialmente durante a Gestão Garotinho,
[00:49:28] a gestão garotinho que implementou isso aqui no Rio de Janeiro,
[00:49:32] você criou uma outra chamada Plano de Metas.
[00:49:34] O que era o plano de metas?
[00:49:35] As delegacias tinham que prender x pessoas por mês, basicamente.
[00:49:41] Porque senão, a delegacia não estava funcionando.
[00:49:45] E o que acontecia?
[00:49:47] Eles começavam a prender pessoas aleatoriamente nas ruas.
[00:49:51] Ou seja, você prendia…
[00:49:52] Eu digo isso porque a minha geração aqui, né, aqui em Pátio de Miguel,
[00:49:57] tipo, foi muito afetada por isso.
[00:49:59] Eu tive muitos amigos,
[00:50:01] não por coincidência em sua imensa maioria negros, né, que foram presos assim.
[00:50:08] Era o sujeito que era preso com baseado no bolso,
[00:50:11] com um toco de baseado no bolso e ia responder pro tráfico de drogas.
[00:50:14] Porque a gente sabe que no Brasil,
[00:50:16] a diferença entre traficante e usuário é o bairro onde você está.
[00:50:19] Então assim…
[00:50:20] Cara, e assim, isso que quando tem um resto baseado no bolso,
[00:50:24] porque quando não tem, aparece, entendeu?
[00:50:27] Apareceu um saquinho de pó, entendeu?
[00:50:29] Aparece alguma coisa.
[00:50:30] Uma arma é plantada com você.
[00:50:31] Essas coisas, a gente sabe como é que funciona.
[00:50:33] E aí o que acontece?
[00:50:34] Você criou uma máquina de prender pessoas nas periferias, nas favelas cariocas,
[00:50:39] porque tinha que se atender aos números da Secretaria de Segurança.
[00:50:42] E essas pessoas que eram presas em sua imensa maioria,
[00:50:46] pessoas ou sem antecedentes criminal,
[00:50:48] ou com pequenos antecedentes criminais, com delitos leves,
[00:50:50] eram condenadas por delitos maiores, passavam mais tempo na cadeia.
[00:50:54] E quando saíam de lá, o que que acontecia com elas?
[00:50:58] Porque imagina, você…
[00:50:59] Assim, eu sei que isso não é o nosso público médio, né?
[00:51:03] A gente sabe que não é o nosso público médio, a gente não está falando…
[00:51:07] Imagina o que é você ser um morador de favela do Rio de Janeiro, negro,
[00:51:13] que não pôde concluir seus estudos, ou até pôde concluir seus estudos,
[00:51:17] mas tem uma passagem na polícia.
[00:51:18] Imagina como é para você conseguir emprego.
[00:51:21] Imagina o que que você vai sofrer perante a sociedade.
[00:51:24] Imagina como vai ser o seu processo de reinserção na sociedade.
[00:51:28] Então assim, não é à toa que você tem um índice de reincidência muito maior.
[00:51:32] Ou seja, aquelas comunidades que foram afetadas pelo plano de métodos,
[00:51:37] porque o plano de métodos não se tornou prender Playboy do Leblon.
[00:51:42] Não foi isso que aconteceu, foi prender o cara aqui de Padre Miguel.
[00:51:45] Então assim, nessas localidades, o que você teve logo em sequência
[00:51:49] é um aumento da criminalidade,
[00:51:51] como consequência dessa política de carceramento de massas.
[00:51:55] O Minority Report resolve isso, entre aspas, né?
[00:51:59] Não, a gente não tem que lidar com essa consequência,
[00:52:01] porque as pessoas vão para tubos de ensaio.
[00:52:03] Mas assim, se você fosse falar da consequência de um sistema
[00:52:06] que sai prendendo as pessoas de maneira inadvertida,
[00:52:10] você vai ter que lidar com essa massa carcerária,
[00:52:13] o que acontece depois, né?
[00:52:16] Sim. O filme, se ele tivesse prisões com as pessoas não em tubos de ensaio,
[00:52:22] ele não ia conseguir fugir do fato de que ele ia ter que tentar justificar
[00:52:26] como que aquela realidade é uma melhoria de alguma coisa.
[00:52:32] Mas agora, Orlando, agora sim, é aqui que você vai mostrar o seu gingado,
[00:52:38] é aqui que você vai mostrar a sua genialidade,
[00:52:40] a razão pela qual o pessoal vem aqui toda semana ouvir você falar,
[00:52:45] que é o seguinte, agora amarra isso com rede social.
[00:52:50] Então, basicamente, o que acontece, quando a gente está produzindo dados,
[00:52:55] você está produzindo, esse que eu estava falando do plano de metas,
[00:52:58] por exemplo, que foi implementado em Rio de Janeiro, década de 90,
[00:53:01] era um modelo praticamente matemático de gestão da população.
[00:53:06] O que as redes sociais produzem, desde a forma como elas radicalizam mensagens,
[00:53:12] desde a maneira como elas estão te mostrando determinados produtos,
[00:53:15] isso que está sendo feito é puramente baseado, tem por detrás do plano,
[00:53:20] um modelo, um programa.
[00:53:22] E esse programa não apenas está ali para mostrar,
[00:53:26] você gosta de vídeos de cachorrinho, você vai ver mais vídeos de cachorrinho.
[00:53:30] Não, ele também vai gerar dados que vão ser utilizados,
[00:53:34] ou para, como a gente viu no caso do Cambridge Analytica,
[00:53:38] tipo, você tem pessoas que…
[00:53:44] esqueci o nome dela da Bethany, Bethany Cabe, se eu não me engano,
[00:53:47] que era uma gestora do Cambridge Analytica,
[00:53:50] ela vai mostrar como você, por meio desses testes,
[00:53:52] você traça perfis psicológicos dos usuários das redes sociais.
[00:53:57] Então, pessoas que, por exemplo, têm filhos jovens
[00:54:02] e estão demonstrando que têm preocupações com segurança pública
[00:54:07] ou com o futuro dos seus jovens, dos seus filhos,
[00:54:09] vão receber anúncios ou vão ver mais conteúdos que tenham relação com isso.
[00:54:14] O que acontece? Você começa a instaurar
[00:54:17] uma paranoia, uma parcela da população que utiliza as redes,
[00:54:22] e que, por sua vez, vai torná-la mais propensa e, ou seja, mais, digamos,
[00:54:27] inclinada a aceitar discursos como o que estamos vendo o mandatário da República,
[00:54:33] por exemplo, que foi no Jornal Nacional dizer,
[00:54:35] não, tem que ter uma guerra, vai morrer dez inocentes,
[00:54:38] mas vão morrer cem pessoas culpadas, sabe?
[00:54:40] Então, assim, aquilo que a gente estava falando,
[00:54:42] que a imaginação racista diz que esse tipo de genocídio
[00:54:48] que é perpetrado nas favelas se justifica
[00:54:50] porque ali estão impedindo crimes de acontecerem com antecedência,
[00:54:55] parte disso, você tem que convencer as pessoas de alguma forma disso.
[00:54:58] E como você convence, que melhor tipo de convencimento você tem hoje,
[00:55:02] que é uma rede social te mostrando o tempo inteiro
[00:55:06] que olha como a sociedade está violenta, olha quem são os criminosos,
[00:55:09] olha como é que as coisas estão funcionando,
[00:55:10] e aí o cara vai lá e liga a televisão e vê lá um Cidade Alerta da Vida,
[00:55:14] quem ele vai ver sendo exposto?
[00:55:16] Ele não vai ver o, sei lá, o empresário sendo exposto
[00:55:19] como um grande criminoso perigoso, sei lá o quê,
[00:55:21] não, ele vai ver o sujeito preto, favelado, sendo exposto sem nenhuma prova,
[00:55:26] desrespeitando todos os seus direitos civis
[00:55:29] como a imagem, como o rosto do criminoso.
[00:55:32] E aí vem um outro ponto, né,
[00:55:34] além desse processo de radicalização da população
[00:55:37] para que ela aceite esse tipo de doutrina racista, eugênica,
[00:55:42] enfim, que está por detrás de nossos protocolos de segurança social
[00:55:46] tal como no Minority Report, porque é isso, né,
[00:55:48] como tu acha que aquela galera estava aceitando aquilo ali, sabe, aquele plano?
[00:55:52] Inclusive, todo, estamos adendo aqui, todo o conto se baseia nisso, né,
[00:55:57] na tentativa de um general do exército de expor o problema dos precogs, né,
[00:56:05] tipo o problema daquele sistema, de como aquele sistema era fascista,
[00:56:08] para tentar libertar a sociedade daquilo ali,
[00:56:10] mas libertar, entre aspas, porque ele queria mais,
[00:56:11] era retomar o controle do exército da segurança social.
[00:56:15] E aí, você tem que convencer a população de que aquilo é justificável.
[00:56:18] Hoje em dia, você tem, por exemplo, agentes sociais atuando nessa forma,
[00:56:22] ao ponto de que as pessoas conseguem aceitar o discurso do Witzel,
[00:56:25] que descreve, em tons sádicos e psicopatas,
[00:56:28] uma bala entrando no crânio de uma pessoa,
[00:56:31] como uma medida de segurança social aceitável.
[00:56:34] E que amarra de volta com o Dr. Strangelove,
[00:56:37] que é, você tem essas pessoas lá que teoricamente são a lei e a ordem,
[00:56:43] discutindo o assassinato de milhões de pessoas, né,
[00:56:47] no caso, bilhões de pessoas, porque seria um evento apocalíptico,
[00:56:50] o genocídio da raça humana,
[00:56:53] mas, assim, ninguém ali, em nenhum momento,
[00:56:55] seria culpabilizado daquilo como um crime, porque não são na vida real, né.
[00:56:59] Os generais e os presidentes responsáveis pelas guerras que a gente tem hoje,
[00:57:03] nunca são vistos como você ver um cara que é acusado
[00:57:07] de matar um outro numa briga de bar, por exemplo, né.
[00:57:12] Nunca é a mesma coisa.
[00:57:14] E aí, de novo, generalidade daquele roteiro do Dr. Strangelove,
[00:57:19] quando começa uma briga entre um dos generais e o embaixador russo,
[00:57:26] acho que é o presidente que fala, ele fala assim,
[00:57:29] não podemos, não, parem, o que é isso?
[00:57:31] Vocês não podem brigar aqui, aqui é a sala de guerra.
[00:57:33] É, isso é muito bom, isso é muito bom, isso é muito bom.
[00:57:37] Não, isso que você falou é importante,
[00:57:38] porque, por exemplo, a gente vive numa sociedade que acha normal
[00:57:42] você encarcerar uma pessoa por dez anos, sei lá, cinco anos,
[00:57:47] que é talvez a plena por furto,
[00:57:49] porque a pessoa roubou, sei lá, uma bicicleta,
[00:57:52] mas ao mesmo tempo você acha é aceitável
[00:57:55] que uma pessoa que desvia dinheiro de saúde pública passa de boa,
[00:57:58] sendo que aquilo que está sendo feito, né, está determinando a vida,
[00:58:02] a vida é a morte de centenas e até milhares de pessoas.
[00:58:05] É, não, e assim, mais extremo e eu acho que mais comum ainda assim, né,
[00:58:09] a pessoa que rouba um pacote de arroz, vamos dizer, do supermercado,
[00:58:15] ela vai presa, porque ela não queria passar fome,
[00:58:18] ela queria comida, ela roubou comida num supermercado,
[00:58:21] o supermercado não é uma pessoa, o supermercado não vai passar fome,
[00:58:24] o supermercado nem prejuízo vai ter, né,
[00:58:26] porque existe algo chamado breakage, ele já leva em conta.
[00:58:28] Mas o produtor ou o distribuidor daquele mesmo arroz, né,
[00:58:34] que quiser não vender o arroz e jogar fora uma colheita,
[00:58:40] porque o preço não vale a pena,
[00:58:41] porque não vale a pena transportar para vender,
[00:58:44] ele não é condenado, né,
[00:58:46] ele que está tirando realmente comida da boca de alguém,
[00:58:50] ele que está fazendo algo que é um crime que realmente tem uma vítima material,
[00:58:54] não é visto como um crime, né,
[00:58:57] tudo bem que eu fiz o exemplo do arroz nesse momento
[00:58:59] em que ninguém está jogando arroz fora, mas vocês entendem,
[00:59:02] na verdade, parte da razão da gente estar lidando com a alta
[00:59:08] de vários alimentos como o arroz, o feijão, o óleo,
[00:59:10] é exatamente porque a gente acha mais valioso
[00:59:14] exportar esses alimentos do que alimentar a nossa população.
[00:59:16] É, e tem uma coisa que eu sei que é importante puxar daí,
[00:59:19] aí vem o segundo aspecto dessa coisa da relação desse,
[00:59:22] do minority report, redes sociais e tal,
[00:59:24] porque que tem um livro que eu vou citar,
[00:59:28] infelizmente não tem em português, que é o Weapon of Meth Destruction
[00:59:31] da Kathy O’Neill, que é um livro onde ela explora justamente
[00:59:36] como é que esses algoritmos,
[00:59:38] o exemplo dela é sempre norte-americano, estadunidense, né,
[00:59:41] mas como eles são utilizados justamente para você qualificar
[00:59:46] o que seria um criminoso perigoso, né,
[00:59:51] e que como essas coisas têm uma relação fundamental, né,
[00:59:55] com um modelo abstrato de imaginação matemática,
[00:59:59] que, por sua vez, reflete os anseios
[01:00:02] daqueles que estão produzindo o modelo.
[01:00:04] Como a gente falou no caso do Doctor Strange Love,
[01:00:06] eles criam um modelo matemático, ali no final do filme,
[01:00:09] eles criam um programa para, basicamente,
[01:00:12] selecionarem mulheres que eles acham bonitas,
[01:00:14] para que vão acompanhar aqueles poderosos pro bunker, né.
[01:00:18] É, e as pessoas que vão ter o tipo de inteligência útil
[01:00:23] para essa burocracia, para esse governo e tudo mais,
[01:00:27] e é uma parada que a gente já falou naqueles episódios
[01:00:29] da primeira temporada sobre polícia,
[01:00:33] que é o seguinte, que é muito utilizado esse tipo de associação,
[01:00:37] porque quando a gente fala de algoritmo e dessa vigilância virtual,
[01:00:44] ela tem muito a ver com metadados, né,
[01:00:46] é tipo qual informação se relaciona com outra informação,
[01:00:49] então tipo, ah, o Orlando, olha só, o Orlando,
[01:00:52] eu tenho informações sobre o Orlando, mas eu posso olhar aqui,
[01:00:55] que pelo que ele fala e quem que ele marca e tal,
[01:00:58] ah, ele conversa com o Gus, ele é amigo do Gus,
[01:01:00] ele se associa com o Gus, então eu tenho esse metadado agora,
[01:01:03] ele não precisa dizer em nenhum lugar, sou amigo do Gus,
[01:01:05] eu tenho como associar aqui as coisas.
[01:01:07] E olha só, os dois lugar nos enquestram o tempo,
[01:01:09] eles devem ter uma conversa aí, não sei o quê.
[01:01:11] E aí, o que que isso leva?
[01:01:12] Isso leva a essa parada que a gente já discutiu lá atrás,
[01:01:16] que é, por exemplo, a simples associação do sujeito
[01:01:20] com alguém que a gente vê como um inimigo do Estado,
[01:01:22] um indesejável, se torna a razão para condenar.
[01:01:25] Não é por acaso, como você adora dizer a frase, não é por acaso,
[01:01:30] que quando rolou o assassinato da Marielle Franco,
[01:01:33] a primeira coisa que a direita conservadora tentou fazer
[01:01:38] era dizer, tipo, ah, mas ela se associava com o traficante.
[01:01:41] É, isso, isso, isso é uma…
[01:01:43] Justamente, fica nesse ponto que eu vou entrar.
[01:01:45] Porque como que você, esse…
[01:01:47] Quando você tem uma…
[01:01:50] Eu até falei disso quando acontecem mortes de crianças aqui no Rio de Janeiro,
[01:01:54] é muito comum que se faça isso, quando morre alguém,
[01:01:56] quando morreu o dançarino do esquenta, né, o DG, por exemplo,
[01:02:00] a primeira coisa que foram tentar produzir
[01:02:02] eram imagens deles segurando fuzil e sei lá o quê.
[01:02:05] Por quê? Primeiro de tudo, toda essa imaginação…
[01:02:08] É sempre bom entender, essa imaginação que se tem,
[01:02:10] boa parte do que se chama dessa imaginação racista se apoia
[01:02:14] num modelo quase matemático, uma imaginação matemática
[01:02:18] sobre como funciona essa sociedade, né.
[01:02:22] No caso do Amarildo também, a mesma coisa.
[01:02:24] Quando você tem sujeitos que são ou alvo de violência,
[01:02:28] ou alvo de, sei lá, de um ataque policial, coisas do tipo,
[01:02:33] a primeira coisa que você procura é uma justificativa
[01:02:36] quase que ambiental para aquilo ter acontecido,
[01:02:39] ou seja, aquele sujeito morava na favela,
[01:02:40] logo ele deveria ser um traficante, logo ele era um sujeito negro,
[01:02:45] então logo ele também deveria ser um bandido.
[01:02:47] Saca, tipo assim, você tenta produzir uma associação racista, né,
[01:02:50] baseada em predisposições racistas.
[01:02:52] Mas é claro, toda essa emagética lá é baseada em preconceitos, por quê?
[01:02:56] Porque quando o presidente e todos os filhos dele
[01:02:59] postam foto segurando rifle e arma,
[01:03:02] não é essa a mensagem que está sendo passada.
[01:03:04] Sim, isso.
[01:03:04] Não é tipo, olha só essa pessoa que é uma ameaça a você,
[01:03:07] porque essa imagem é direcionada a exatamente o público dele,
[01:03:10] é o público que se vê como o cidadão de bem,
[01:03:12] a pessoa que não se mistura com os indesejáveis, né.
[01:03:16] É que se protege dos indesejáveis, inclusive só…
[01:03:19] Exatamente, então o rifle não é o símbolo da ameaça,
[01:03:23] não é a arma que é o símbolo da ameaça, é quem segura.
[01:03:25] É a cor de quem segura muitas vezes, né.
[01:03:27] No caso, sim, exato.
[01:03:28] Da imaginação racista, a cor de quem segura.
[01:03:30] Só um adendo, sobre Dr. Strandlove, tem uma cena sensacional
[01:03:33] no qual o cara precisa falar com o presidente, precisa de moedas,
[01:03:35] ele fala assim, cara, pega naquela máquina de Coca-Cola,
[01:03:38] aí o cara fala assim, aquilo é propriedade privada.
[01:03:40] Aí o cara, cara, aquilo é muito bom.
[01:03:42] É muito foda, porque eles estão lidando com um possível apocalipse mundial,
[01:03:47] o cara precisa falar com o presidente, aí primeiro,
[01:03:51] a operadora lá que está conectando a ligação
[01:03:53] não deixa ele ligar para o presidente
[01:03:55] se ele não botar o número certo de moedas no orelhão.
[01:03:57] Aí ele pede para o cara que está segurando um rifle contra ele,
[01:04:02] que é outro militar, ele fala assim,
[01:04:03] dá um tiro naquela máquina de refrigerante ali
[01:04:06] para eu poder pegar as moedas e falar com o presidente,
[01:04:09] porque senão a gente vai morrer.
[01:04:10] E ele fala assim, olha, é melhor você falar com o presidente
[01:04:15] depois de roubar essas moedas, porque senão…
[01:04:18] Ele ensinou o quê?
[01:04:19] Senão você vai ter que se ver com a Coca-Cola Company.
[01:04:22] Como se fosse…
[01:04:24] O presidente dos Estados Unidos, quem é o presidente dos Estados Unidos?
[01:04:27] A gente está falando de uma corporação multinacional,
[01:04:29] e aí a gente vai chegar nisso no episódio que a gente fala de Network,
[01:04:32] que vai ser mais…
[01:04:33] Então, mas aí só para voltar para o ponto que acho que é o ponto essencial,
[01:04:37] porque quando a gente está produzindo esse…
[01:04:40] Toda essa máquina, imagina, a gente vive num mundo que um sujeito…
[01:04:45] Aconteceu recentemente, você teve um músico negro,
[01:04:51] morador de favela aqui do Rio de Janeiro,
[01:04:52] que foi preso pela polícia, baseado no reconhecimento de foto.
[01:04:56] E aí você vê, assim, esse sujeito, a gente…
[01:04:59] Existe muito material sobre isso,
[01:05:01] mostra como, por exemplo, essa coisa de reconhecimento de foto,
[01:05:03] reconhecimento de testemunha,
[01:05:04] se a pessoa, por exemplo, se a pessoa que está fazendo esse reconhecimento,
[01:05:07] ela tem uma predisposição racista…
[01:05:09] E é sempre bom dizer aqui uma coisa,
[01:05:11] racismo não é apenas uma coisa consciente.
[01:05:15] As pessoas, ele também é uma orientação da própria cognição,
[01:05:18] então as pessoas vão dizer, por exemplo, aquela coisa tipo,
[01:05:20] ah, os negros são todos iguais, sabe, que eu não consigo…
[01:05:23] Essa coisa que as pessoas dizem é bizarro, assim,
[01:05:26] você já deve ter escutado esse tipo de coisa.
[01:05:29] Se fala muito isso sobre asiáticos, né.
[01:05:32] É muito comprovado que muito dessas pessoas
[01:05:36] que vão servir de testemunhas para crimes,
[01:05:39] tendem a falar frases como esse tipo de coisa,
[01:05:42] não, eu não consegui reconhecer, porque era um sujeito negro, sabe, tipo…
[01:05:45] Mas só que isso, aí é que a gente volta para as redes sociais,
[01:05:49] isso não está nas pessoas só.
[01:05:50] A gente sabe hoje que todos esses algoritmos de reconhecimento facial,
[01:05:54] de inteligências artificiais,
[01:05:56] eles são totalmente condicionados por quem desenvolve e pelo…
[01:06:00] Exatamente.
[01:06:02] E pela amostragem que ele usa para aprender.
[01:06:04] A gente tem o caso aí, por exemplo,
[01:06:05] todos os algoritmos, a gente sabe hoje, de reconhecimento facial,
[01:06:08] são racistas,
[01:06:09] porque você tem menos desenvolvedores trabalhando neles que são negros,
[01:06:14] você privilegia menos a ingestão de imagens de pessoas negras diferentes,
[01:06:18] então você enche o aprendizado do algoritmo de imagens de gente branca,
[01:06:24] e só algumas são negras.
[01:06:25] Aí você já… E aí você volta para uma questão que as câmeras,
[01:06:28] desde a época do filme, já são pensadas e calibradas para a pele branca,
[01:06:32] que elas levam muito pouco em conta a possibilidade de captar com fidelidade
[01:06:38] os diferentes tons das peles negras e peles mais escuras,
[01:06:42] e aí tudo isso vira…
[01:06:44] De novo, a tecnologia não é neutra.
[01:06:47] A gente repé… E como toda a nossa criação de inteligentes artificiais
[01:06:52] e desse negócio que deveria ser melhor que nós,
[01:06:59] esse discurso de…
[01:07:00] O computador é muito melhor que você,
[01:07:01] então ele faz um reconhecimento facial que nenhum ser humano poderia fazer e tal.
[01:07:04] Só que são humanos desenvolvendo isso,
[01:07:06] então ele carrega em si todos os preconceitos e todas as inclinações parciais
[01:07:13] que os humanos responsáveis por ele carregam.
[01:07:15] Porque, um, a gente é incapaz de desenvolver ele sem isso e, dois,
[01:07:19] quando esses sistemas são como eles são,
[01:07:22] inseridos numa sociedade racista, menos inclusiva e tudo mais,
[01:07:25] você é incapaz de perceber aquele erro até você estar demais.
[01:07:28] E esse que é um ponto que é crucial mesmo,
[01:07:30] porque a gente vive numa sociedade onde você falou, a Marielle…
[01:07:34] Cara, no caso da Marielle, por exemplo, você teve muito isso.
[01:07:37] Quando a Marielle morreu, circulou uma foto de uma mulher
[01:07:43] que, obviamente, não era a Marielle.
[01:07:45] Sentada num colo de um cara que, obviamente, não era o traficante citado.
[01:07:48] Fala assim, ó, tá vendo? Ela sentada no colo do traficante.
[01:07:50] E aí, como é que tu vê?
[01:07:51] Muitas pessoas realmente enxergavam a Marielle ali
[01:07:56] por conta de uma série de pressupostos racistas, ideológicos,
[01:08:00] e viu assim, nossa, tá vendo? Ela ali sentada no colo do traficante.
[01:08:02] E aquele sujeito é o traficante também.
[01:08:04] E, enfim, eu digo isso porque eu tive a experiência de confrontar uma pessoa
[01:08:07] que falou assim, tá vendo? Olha essa foto da Marielle
[01:08:09] e olha aquela pessoa que tá ali. Não são nem de longe a mesma pessoa.
[01:08:12] Sabe que aí vem um outro elemento que um dia a gente vai falar melhor sobre isso.
[01:08:16] Vem uma elaboração secundária da pessoa e falar assim,
[01:08:19] não, mas essa foto foi tirada com uma luz diferente.
[01:08:21] Então, assim, agora tu imagina, a gente tá falando de uma sociedade
[01:08:24] composta por pessoas que, cujo cérebro faz esse tipo de movimento, né?
[01:08:29] Porque esse tipo de notícia, aquela foto circulou,
[01:08:33] não… Ela circulou porque tinham pessoas que acreditavam nela.
[01:08:37] É, ela circulou porque ela reforçava uma crença e espiava uma culpa.
[01:08:44] Porque, assim, ali era um caso em que a direita e as pessoas que defendiam aquilo
[01:08:49] não conseguiam muito uma desculpa pra você defender um assassinato tão brutal quanto aquele.
[01:08:56] Mas aí, a partir do momento que você vira e fala assim,
[01:08:59] não, não, não, mas essa mulher que morreu aí, ela era metida com um bandido.
[01:09:03] Aí você imediatamente tem a desculpa pra um,
[01:09:06] não ser considerado culpado por se associar com pessoas que,
[01:09:12] claramente, estão associadas com esse crime, mas mais do que isso,
[01:09:15] você tem uma desculpa pra não se importar.
[01:09:17] É, não, mas então, eu acho que isso aí, eu nem queria entrar nisso,
[01:09:21] eu tava querendo entrar mais na coisa cognitiva mesmo, né?
[01:09:23] Porque, justamente, a gente tá falando de uma sociedade onde,
[01:09:26] é… Toda essa ideologia racista que permite todo esse racismo estrutural
[01:09:31] vai fazer com que pessoas reconheçam esse tipo de associação,
[01:09:35] o cérebro dessas pessoas reconhece essa associação como válida.
[01:09:38] E aí, tu imagina, nesse contexto, você tem uma tecnologia que,
[01:09:42] como você bem lembrou, tipo, não é capaz de reconhecer as nuances
[01:09:46] do som de peles negras,
[01:09:47] não é capaz de produzir um retrato fidedigno de uma pessoa negra,
[01:09:51] e, ao mesmo tempo, são projetadas…
[01:09:54] Aí, tu vê, tem todo esse histórico da tecnologia que foi criado
[01:09:58] pra representar pessoas brancas e sei lá o quê.
[01:10:00] Aí, você tem, pro outro lado, toda essa associação que é produzida
[01:10:06] até pelas próprias estatísticas que são criadas dentro, né,
[01:10:10] por meio de um aparato estatal racista genocida,
[01:10:13] aquilo que eu tava falando do plano de metas,
[01:10:15] que fez com que o índice de criminalidade
[01:10:18] nas periferias do Rio de Janeiro aumentasse horrores.
[01:10:20] Se você criar um programa de computador no Rio de Janeiro e falar assim,
[01:10:22] onde temos que, baseado no índice de criminalidade,
[01:10:25] onde que a polícia tem que agir mais e com mais intensidade,
[01:10:29] você vai reforçar as estruturas que geram a criminalidade, entendeu?
[01:10:34] Esse que é o ponto.
[01:10:35] Quando a própria imaginação sobre como combater,
[01:10:37] o que é uma solução pra combater o crime,
[01:10:39] ela traz consigo o germe do crime.
[01:10:42] E aí, você tem essa sociedade que tá produzindo algoritmos,
[01:10:45] que tá produzindo modelos matemáticos de ação que tão por trás da produção,
[01:10:49] que tão se valendo de produção de dados criados em redes sociais
[01:10:53] para serem abastecidos, ou seja, a gente tá criando um sistema
[01:10:56] que vai reforçar ainda mais a marginalização,
[01:11:01] criminalização de pessoas negras, de pessoas mais pobres,
[01:11:06] enfim, porque justamente a estrutura racista prévia
[01:11:10] encontrou naquela própria redução das redes sociais
[01:11:13] o seu ambiente perfeito para se reproduzir,
[01:11:15] como na tragédia do Dr. Strangelove,
[01:11:18] que a destruição da humanidade permitiu que o processo eugênico do nazismo
[01:11:25] finalmente se concluísse.
[01:11:26] Sim.
[01:11:27] Só o outro exemplo que eu ia falar,
[01:11:30] sobre como que a inteligência artificial não é melhor que a gente,
[01:11:34] porque ela aprende com a gente.
[01:11:35] Teve um caso uns anos atrás, não sei se você lembra,
[01:11:37] a Microsoft lançou uma conta de Twitter que era uma inteligência artificial dela,
[01:11:43] que era para mostrar, olha, a gente tem essa inteligência artificial
[01:11:45] que aprende conversando com seres humanos.
[01:11:47] E ele ficou dias no ar antes de eles se tirarem do ar,
[01:11:51] porque ele virou o quê?
[01:11:52] Um Twitter extremamente racista.
[01:11:55] Sim.
[01:11:55] Porque ele estava aprendendo com a internet.
[01:11:58] Sim, sim.
[01:11:59] E aí as pessoas que mais interagiam com aquilo
[01:12:01] eram pessoas que estão o tempo interconectadas,
[01:12:03] e enfim, a gente já falou de Fortran e todos esses lugares
[01:12:05] e o tipo de personalidade que se criou nas pessoas extremamente online.
[01:12:11] Enfim, e aí é um caso que você vê exatamente tipo,
[01:12:14] ah, exato, toda essa inteligência teoricamente superior à nossa
[01:12:19] é feita pela gente, então ela aprende com a gente
[01:12:21] e ela replica os nossos erros numa escala muito maior.
[01:12:25] É isso que é importante, volta de novo para o Doctor Strange Love, né?
[01:12:28] Engraçado como o Doctor Strange Love é um filme tão bom
[01:12:30] que a gente quase não falou do Minority Report.
[01:12:32] Que bom, né?
[01:12:33] Que bom, né, cara? Que filme ruim, Minority Report.
[01:12:35] Mas enfim, porque aquela coisa que eu estava falando,
[01:12:37] que o general lá, o paranoicozão lá que faz toda aquela merda,
[01:12:40] ele é um reflexo daquela estrutura, daquela ideologia,
[01:12:43] daquela mentalidade do complexo bélico militar norte-americano.
[01:12:48] E da paranoia que era muito comum na época, da Guerra Fria,
[01:12:51] que agora voltou com tudo, que a gente finalmente está…
[01:12:53] Que era alimentada, que era máquina, porque aí tu vê lá,
[01:12:55] o presidente tem uma linha direta com o presidente soviético, né, cara.
[01:13:00] E aí, tipo, mas é interessante como entender que aquele sujeito,
[01:13:04] ele não é um sujeito excepcional, ele não é um sujeito divergente,
[01:13:07] pelo menos, ele é a própria, incorpora, ele é o próprio, digamos, reflexo,
[01:13:10] é o próprio rosto bem acabado daquele modelo ali.
[01:13:13] Da mesma forma como os radicais de internet
[01:13:16] são um modelo bem acabado da mentalidade do próprio programa,
[01:13:20] do próprio algoritmo que está por detrás da internet.
[01:13:22] Aí você vê, em uma sociedade cada vez mais automatizada,
[01:13:26] onde você tem predição de modelos de, olha, vamos aqui adotar
[01:13:32] uma estrutura científica para acabar com a criminalidade no Rio de Janeiro,
[01:13:35] vamos aqui… O tempo todo você tem esse discurso vindo à tona,
[01:13:38] você entende que esses modelos matemáticos tais como os algoritmos
[01:13:41] das redes sociais são produzidos para refletir essa ideologia,
[01:13:45] ou seja, eles vão acabar radicalizando essa ideologia
[01:13:48] e não atuando contra elas. Esse que é um ponto.
[01:13:51] As pessoas acreditam que a matemática,
[01:13:52] que é esse modelo de programa de computador, são neutros, não são.
[01:13:55] Eles estão reforçando, radicalizando estruturas prévias da sociedade
[01:14:00] que os produziu e das, melhor, não só da sociedade,
[01:14:03] das classes dos tipos de pessoas que o produziram.
[01:14:07] E aí você tem esse que é o bojo final.
[01:14:09] Em ambientes onde você consegue ver essa redução acontecer, digamos assim,
[01:14:14] a realidade se torna reduzida, como no mundo pós-apocalipse do Dr. Strangelove,
[01:14:22] que permite a realização do projeto eogênico,
[01:14:24] as redes sociais, ela permite essa radicalização plena
[01:14:27] porque você tem uma redução do contato, do convívio,
[01:14:32] da própria bagunça que configura a realidade,
[01:14:35] ou seja, as pessoas vão se tornando cada vez mais racistas,
[01:14:38] as pessoas vão se tornando cada vez mais pró-genocidas,
[01:14:41] mas pró-discurso de segurança pública que entende que o genocídio nas favelas
[01:14:44] é uma forma de impedir crimes de acontecerem e sei lá o quê.
[01:14:48] Por quê? Porque elas estão imbebidas naquela redução.
[01:14:52] Naquele momento assim, olha, o modelo matemático está dizendo
[01:14:54] que essas pessoas são criminosas,
[01:14:56] está dizendo que esses corpos são mais propensos a cometerem crimes,
[01:14:59] que essas pessoas têm hábitos perigosos.
[01:15:01] Então, assim, tenha medo dessas pessoas,
[01:15:03] apoie medidas de sistemas de segurança, apoie genocídio, sabe?
[01:15:06] Então é isso que está acontecendo.
[01:15:07] As pessoas que estão lá falando, morrem,
[01:15:09] têm que matar as pessoas, sei lá o quê,
[01:15:11] eles não são indivíduos excepcionais,
[01:15:12] eles são, digamos, filhos ideais desse sistema,
[01:15:17] que a gente está louvando e às vezes imaginando que é neutro.
[01:15:21] E como a gente fala dessas pessoas extremamente online,
[01:15:23] como que nesses ambientes online nichados e extremamente fechados
[01:15:28] e de consumo muito superficial de informação
[01:15:31] e de facilidade de propagação de informação falsa surgiram no começo dos anos 2000,
[01:15:39] o que a gente vê agora que todo mundo tem acesso à internet,
[01:15:42] todo mundo está conectado o tempo inteiro,
[01:15:43] todo mundo está se comunicando por WhatsApp,
[01:15:45] todo mundo está se informando primariamente online
[01:15:49] e se conectando com as pessoas, mesmo aquelas próximas, online,
[01:15:54] você vê a propagação exatamente desse tipo de coisa,
[01:15:58] dos pizza gates da vida, das teorias da conspiração da extrema direita,
[01:16:04] essas coisas chegam muito mais longe porque
[01:16:07] essas tecnologias que permitiram que isso ganhasse força num certo nicho
[01:16:11] agora estão acessíveis e estão na mão de muita gente,
[01:16:14] então a gente está muito mais exposto a isso.
[01:16:16] E só para reforçar, esses modelos matemáticos,
[01:16:20] esses programas também são utilizados pelos governos para produzir,
[01:16:24] digamos, essas pessoas que são radicalizadas nas redes aceitam de bom grado
[01:16:32] programas cada vez mais radicais de gestão populacional,
[01:16:35] de gestão de segurança pública,
[01:16:37] e a gente sabe que são programas racistas, são programas genocidas,
[01:16:40] então, por exemplo, para que você tenha,
[01:16:41] para que as pessoas normalizem o absurdo que é o caveirão dando tiro
[01:16:46] e matando gente na maré, matando gente aqui na Vila Vintém,
[01:16:49] matando gente na Vila Kennedy,
[01:16:51] você precisa ter uma aceitação de que essas mortes são justificáveis,
[01:16:56] que esses corpos são matáveis,
[01:16:58] e essa estrutura das redes faz com que as pessoas aceitem esses programas,
[01:17:03] e por sua vez, esses programas, esse tipo de gestão,
[01:17:07] sobretudo, voltada para o profiling dessas coisas,
[01:17:11] também são baseados em modelos matemáticos, ainda que não assumidos,
[01:17:15] racistas, classistas, como é que se chama?
[01:17:21] Nossa, eu esqueci a palavra quando a pessoa tem preconceito local,
[01:17:24] mas enfim, vocês entenderam a questão.
[01:17:26] -“Chinofobia”?
[01:17:26] -“Não, tem um outro nome, esqueci o nome…”
[01:17:29] -“Bairrismo”?
[01:17:30] -“Não, Bairrismo é o nome amplo,
[01:17:33] tem alguma coisa fóbica, esqueci, caramba, mas enfim, é isso.”
[01:17:37] Mas é isso, falamos, tá dito.
[01:17:40] É, não use geolocalização no celular.
[01:17:43] Não use geolocalização no celular, mas ao mesmo tempo, agora já foi, né?
[01:17:46] É, agora já foi.
[01:17:48] Tá certo, é isso, tchau.