Naruhodo #388 - Somos bons (ou maus) por natureza? - Parte 2 de 2
Resumo
Este episódio continua a investigação científica sobre se os seres humanos nascem bons ou maus, partindo das discussões filosóficas da parte 1 para evidências empíricas. Os apresentadores exploram como a teoria dos jogos, inaugurada por John von Neumann, fornece ferramentas para testar comportamentos cooperativos através de modelos como o dilema do prisioneiro. O dilema mostra que, em interações únicas, a traição tende a ser a estratégia mais segura, mas em jogos iterados (com repetição), a cooperação se torna vantajosa.
Paralelamente, a biologia evolutiva, através de pesquisadores como Ronald Fisher e William Hamilton, desenvolveu a teoria da seleção de parentesco e a regra de Hamilton (R×B > C), que explica como o altruísmo pode ser adaptativo quando beneficia genes compartilhados com parentes. O trabalho do físico George Price generalizou matematicamente essas ideias, demonstrando que a cooperação é evolutivamente estável, embora sua busca por provas materiais tenha levado a uma tragédia pessoal.
Experimentos com crianças revelam disposições inatas: bebês de apenas quatro meses preferem interagir com personagens que ajudam outros, demonstrando uma percepção precoce de cooperação. Crianças pequenas também aprendem a cooperar seletivamente, ajudando mais aqueles que antes cooperaram com elas. No entanto, outro componente inato entra em conflito: a tendência a separar o mundo entre “nós” e “eles”, reforçada por hormônios como a ocitocina, que fortalece laços dentro do grupo, mas pode aumentar a hostilidade contra outsiders.
A conclusão é que os seres humanos possuem tanto uma disposição inata para a cooperação (especialmente dentro de grupos familiares ou de interação repetida) quanto uma tendência inata para a divisão social. A bondade ou maldade não são absolutas, mas dependem do contexto e de como definimos nossos grupos de pertencimento. A chave para uma sociedade mais cooperativa está em expandir continuamente a definição de “nós”, tornando nossos círculos de identidade mais inclusivos.
Indicações
Books
- The Price of Altruism — Biografia de George Price que detalha sua vida, seu trabalho matemático revolucionário provando a existência do altruísmo adaptativo e sua trágica busca por evidências na vida real, que culminou em seu suicídio.
- Behave — Livro de Robert Sapolsky que explora as bases biológicas do comportamento humano, incluindo uma discussão detalhada sobre o papel real da ocitocina na formação de coalizões e na distinção entre grupos.
- Por que as zebras não têm úlcera? — Livro anterior de Robert Sapolsky, mencionado como uma boa introdução aos seus trabalhos, focando em estresse, ansiedade e fisiologia.
Music
- Minha Tribo Sou Eu — Música de Zé Cabaleiro citada por Ken ao final do episódio. A letra, que lista uma série de identidades que o artista não é, é apresentada como uma representação artística da conclusão do episódio: a identidade se define mais pelo que não somos, e a verdadeira tribo pode ser o indivíduo singular.
Websites
- The Evolution of Trust — Um site interativo e bem feito que simula jogos de dilema do prisioneiro iterado, permitindo que o usuário entenda visualmente como estratégias de cooperação e traição se saem ao longo do tempo. Recomendado no episódio para experimentar a teoria dos jogos.
Linha do Tempo
- 00:02:29 — Recapitulação filosófica e introdução ao método científico — Ken e Altair retomam a discussão filosófica da parte 1 (Rousseau, Hobbes, Kant, Nietzsche) e anunciam a transição para uma abordagem científica no século XX. Eles explicam que, antes, a questão era puramente filosófica ou religiosa, mas com o advento da teoria da seleção natural e métodos quantitativos, tornou-se possível testar empiricamente se somos bons ou maus por natureza.
- 00:07:34 — Teoria dos Jogos de Von Neumann e o conceito de jogo — Altair apresenta a teoria dos jogos, inaugurada por John von Neumann em 1944. Ele define um jogo como qualquer interação entre múltiplas pessoas onde o resultado de cada um é afetado pela decisão dos outros. Essa ferramenta permite modelar situações de cooperação e traição, sendo fundamental para testar comportamentos altruístas de forma quantitativa.
- 00:10:14 — O dilema do prisioneiro e a lógica da cooperação — É explicado o famoso dilema do prisioneiro, um jogo onde dois prisioneiros, sem comunicação, devem decidir entre cooperar (ficar em silêncio) ou trair (delatar o outro). A matriz de payoffs mostra que, em uma interação única, a estratégia racional é trair. No entanto, Altair adianta que em jogos iterados (repetidos), a dinâmica muda e a cooperação pode se tornar a melhor estratégia.
- 00:20:18 — Seleção de parentesco de Hamilton e o gene egoísta — A discussão volta para a biologia com o trabalho de William Hamilton e sua teoria da seleção de parentesco. A regra de Hamilton (R×B > C) estabelece que o altruísmo é evolutivamente vantajoso se o benefício (B) para um parente, ponderado pelo grau de parentesco (R), for maior que o custo (C) para o altruísta. Isso fundamenta a ideia do ‘gene egoísta’, onde a seleção natural atua no nível dos genes, não dos indivíduos.
- 00:24:19 — George Price e a equação que prova o altruísmo adaptativo — É contada a história de George Price, um físico e aluno de Hamilton que generalizou matematicamente a teoria da seleção de parentesco. Ele desenvolveu a Lei de Equilíbrio de Price, provando matematicamente que a cooperação e o altruísmo podem ser traços evolutivamente estáveis. Sua busca obsessiva por uma prova material na vida real, somada a problemas de saúde mental, levou a uma tragédia pessoal.
- 00:37:35 — Experimentos com bebês: predisposição inata para a cooperação — Altair apresenta um experimento crucial de 2017 com bebês de apenas quatro meses. Os bebês assistiam a uma animação onde formas geométricas ‘brigavam’ e um quadrado ‘verde’ intervinha para apartar a briga, enquanto um quadrado ‘laranja’ não fazia nada. Posteriormente, 17 das 20 crianças preferiram interagir com um brinquedo que representava o ajudante (verde), indicando uma percepção muito precoce e inata de comportamento cooperativo.
- 00:42:00 — O papel real da ocitocina: coalizão, não amor universal — Desmistificando a ideia popular de que a ocitocina é o ‘hormônio do amor’ ou do altruísmo, os apresentadores explicam seu verdadeiro papel. A ocitocina reforça a distinção entre ‘nós’ e ‘eles’, fortalecendo laços e cooperação dentro do grupo, mas pode aumentar a hostilidade ou desconfiança em relação a membros de grupos externos. Isso revela um conflito inato: a tendência a cooperar versus a tendência a dividir o mundo.
- 00:46:52 — Conclusão: somos bons e maus, dependendo do alvo — Ken e Altair concluem que a pergunta ‘somos bons ou maus por natureza?’ não tem uma resposta simples. Nascemos com uma predisposição inata para a cooperação e para perceber ajudantes, mas também com uma tendência inata para criar divisões entre ‘nós’ e ‘eles’. A bondade ou maldade dependem do alvo: tendemos a ser cooperativos com nosso grupo e desconfiados ou hostis com outsiders. A chave é expandir conscientemente nossa definição de ‘nós’.
Dados do Episódio
- Podcast: Naruhodo
- Autor: B9, Naruhodo, Ken Fujioka, Altay de Souza
- Categoria: Science Social Sciences Science Life Sciences Education Self-Improvement
- Publicado: 2023-06-12T03:00:00Z
- Duração: 00:52:35
Referências
- URL PocketCasts: https://pocketcasts.com/podcast/3f602eb0-4ae0-0134-ebfa-0d50f522381b/episode/1a75b9e5-b6b6-4e07-a259-8489359bbc8b/
- UUID Episódio: 1a75b9e5-b6b6-4e07-a259-8489359bbc8b
Dados do Podcast
- Nome: Naruhodo
- Tipo: episodic
- Site: http://naruhodo.b9.com.br
- UUID: 3f602eb0-4ae0-0134-ebfa-0d50f522381b
Transcrição
[00:00:01] Somos bons ou maus por natureza? Parte 2
[00:00:05] Bem-vindo ao NARUHODO, podcast para quem tem fome de aprender. Eu sou Ken Fujioka.
[00:00:18] Eu sou Ted Souza.
[00:00:19] E hoje é dia de quê?
[00:00:20] Ciência e senso comum.
[00:00:24] Você quer apoiar a ciência?
[00:00:26] Quer apoiar o pensamento científico?
[00:00:30] Quer ajudar o NARUHODO a se manter no ar?
[00:00:32] Ouvir os episódios e espalhar a palavra já é um grande passo.
[00:00:37] Mas existe um outro jeito.
[00:00:38] Quem possibilita isso é a ORELO.
[00:00:41] Você escolhe um valor de contribuição mensal e tem acesso a conteúdos exclusivos,
[00:00:46] conteúdos antecipados e vantagens especiais.
[00:00:49] Além disso, você pode ter acesso ao nosso grupo fechado no Telegram
[00:00:52] e conversar comigo, com o Altair e com outros apoiadores.
[00:00:56] Toda vez que você ouvir ou fizer download de um episódio pelo ORELO,
[00:01:00] vai também estar pingando uns trocadinhos para o nosso projeto.
[00:01:04] Combinado?
[00:01:05] Então baixe agora mesmo o app ORELO no endereço orelo.cc
[00:01:09] ou na sua loja de aplicativos e ajude a fortalecer o conhecimento científico.
[00:01:21] E o momento Alura de hoje é diferente.
[00:01:24] Afinal, o uso de inteligência artificial, chamada também de IA, já é uma realidade.
[00:01:29] Profissionais que se adaptam melhor a esse novo cenário
[00:01:32] têm muito mais chances de crescer dentro de sua carreira.
[00:01:35] Por isso, a Alura criou a Imersão IA.
[00:01:39] A Imersão IA consiste em uma semana de aulas imersivas, online e gratuitas,
[00:01:45] onde você vai entender como aplicar o uso da inteligência artificial
[00:01:48] em áreas como marketing, gestão, data science e até em desenvolvimento de software.
[00:01:53] Aproveite essa chance imperdível e gratuita de entrar nesse novo mundo.
[00:01:57] Isso mesmo que você ouviu.
[00:01:59] A Imersão IA é grátis.
[00:02:02] Mas atenção, as inscrições vão só até o dia 18 de junho.
[00:02:06] Então anota o URL aí.
[00:02:08] É bit.ly com Y no final, barra naruhodô, traço IA2023.
[00:02:16] Repetindo, bit.ly com Y, barra naruhodô, traço IA2023.
[00:02:24] Alura, mergulhe em tecnologia.
[00:02:29] Altaí, voltamos para a parte 2 desse episódio duplo
[00:02:41] sobre se nós somos bons ou maus por natureza, Altaí.
[00:02:45] Pegando o gancho do episódio passado, foi bem filosófico, né?
[00:02:49] Assim, a gente não chegou numa concretude das evidências ainda,
[00:02:52] foi só um embate de ideias.
[00:02:53] À luz do episódio anterior, Kim, com o coração mesmo,
[00:02:56] você acha que a gente nasce bom ou não?
[00:02:57] Antes de responder, Altaí,
[00:02:59] eu vou deixar aqui um recado para os ouvintes.
[00:03:01] Sim.
[00:03:02] Se você não ouviu a parte 1,
[00:03:04] dê stop agora no episódio 388,
[00:03:07] volte para o episódio 387,
[00:03:09] ouça e aí volte para cá.
[00:03:12] Isso, senão vai perder o contexto.
[00:03:14] Dito isso, eu ainda não sei afirmar…
[00:03:17] Você não tem nenhum palpite se fosse para apostar um dinheiro.
[00:03:20] Se fosse para apostar um dinheiro…
[00:03:22] Primeiro que eu não apostaria tanto dinheiro, é.
[00:03:25] Isso, pouco, pouco, 10 reais, sei lá, 5 reais.
[00:03:28] É…
[00:03:28] Eu tendo a chance…
[00:03:29] Eu tendo a chance de achar que a gente faz tudo para sobreviver.
[00:03:34] Se a gente faz para sobreviver e, socialmente,
[00:03:40] a gente tem mais chance de sobreviver do que sozinho,
[00:03:44] eu diria que a gente tende ao altruísmo.
[00:03:50] Muito bem, muito bem.
[00:03:52] Então, a gente tende a ser bom.
[00:03:55] Isso.
[00:03:56] Você percebe assim que quando você verbaliza,
[00:03:58] porque uma coisa é você pensar,
[00:03:59] outra é você falar, porque você ouve você mesmo, né?
[00:04:02] Quando você fala, tipo, ah, a gente tende a ser bom.
[00:04:06] Ao mesmo tempo, parece que, não, sabe?
[00:04:08] Tipo, você fica realmente em dúvida, você fica…
[00:04:10] Fico realmente em dúvida, porque assim que eu afirmei,
[00:04:12] eu falei, mas a gente é egoísta.
[00:04:14] Você encontra um contragumento o tempo inteiro.
[00:04:16] Então, parece que uma coisa fica ciclando na sua cabeça, né?
[00:04:19] Verdade.
[00:04:19] É assim mesmo.
[00:04:21] É o que as evidências trazem.
[00:04:22] Isso que é interessante.
[00:04:23] Vamos chegar nessa conclusão daqui a pouco.
[00:04:25] Certo.
[00:04:26] Só para fazer um recap rápido do episódio passado,
[00:04:29] foi um episódio basicamente filosófico histórico, né?
[00:04:31] A gente falou do modelo do Rousseau, que defende, né,
[00:04:33] que o ser humano nasce bom, a sociedade o corrompe.
[00:04:36] Modelos do Thomas Hobbes, que é o contrário.
[00:04:38] O lobo, o homem é o lobo do homem.
[00:04:39] O Kant, que estava ali no meio do sarrafo ali também,
[00:04:42] mas tentou responder, mas não deu muito certo.
[00:04:45] Mas o Kant coloca coisas interessantes sobre a ética do dever
[00:04:48] e a importância da gente respeitar, por exemplo,
[00:04:51] leis gerais, éticas, né?
[00:04:53] Mesmo à custa de uma perda individual.
[00:04:55] Então, apesar do Kant defender a ideia do mal radical,
[00:04:57] se a ética do dever se aplicar de verdade,
[00:05:01] a gente pelo menos…
[00:05:02] Tudo bem, a gente não pode ser bom,
[00:05:03] mas pelo menos boa praça a gente é.
[00:05:04] E aí vem, depois do século XIX,
[00:05:06] vem o Nietzsche, chuta o pau de tudo isso aí,
[00:05:09] fala que isso aí nem uma pergunta é direito,
[00:05:11] porque, na verdade, tudo isso aí é reprodução
[00:05:13] de um discurso cristão que tem que acabar e tal, né?
[00:05:17] E aí você fica nesse conflito louco.
[00:05:19] E a ideia é ficar no conflito mesmo,
[00:05:20] é ficar angustiado.
[00:05:21] E aí, no século XIX, né, tem o Nietzsche de um lado,
[00:05:25] aparece a teoria da seleção natural,
[00:05:27] a teoria da seleção natural ajuda muito a organizar método,
[00:05:30] sobretudo trazendo a biologia pro jogo,
[00:05:32] uma parte da psicologia entra junto,
[00:05:34] a sociologia de rabeira também entra,
[00:05:36] porque precisa do método,
[00:05:38] e aí começam a se surgir métodos
[00:05:40] que tornam possível testar a questão.
[00:05:42] Antes do século XX não tinha como nem testar a questão,
[00:05:44] então ficava uma questão filosófica, religiosa, enfim.
[00:05:48] Nesse sentido, a crítica do Nietzsche é boa, mesmo,
[00:05:51] de mostrar que a dicotomia entre bem e mal
[00:05:53] é uma questão ocidental cristã, assim, né?
[00:05:56] Em outras culturas,
[00:05:57] não ocorre, não importa.
[00:05:59] Por que que essa questão importa tanto, né, ocidentalmente, né?
[00:06:03] Tem um discurso, e aí vem do modelo cristão de pensamento,
[00:06:07] que existe até hoje.
[00:06:08] Mas, transcendendo essa lógica, né,
[00:06:11] tudo bem, a gente percebe que tem um conflito,
[00:06:13] mas será que dá pra testar?
[00:06:14] Então, falamos um pouquinho, né, no final do episódio passado
[00:06:17] sobre o Ronald Fisher,
[00:06:19] primeiro vem o Darwin,
[00:06:20] aí o Ronald Fisher tenta dar uma formulação matemática mais ou menos,
[00:06:23] e escreve, né, um livro importantíssimo, 1930,
[00:06:26] Teoria Geral,
[00:06:27] da Seleção Natural,
[00:06:28] um livro que tenta sistematizar matematicamente um pouco mais,
[00:06:31] pra quem já estudou métodos quantitativos
[00:06:33] e pensa no Ronald Fisher como criador da análise de variantes da nova,
[00:06:36] é ele mesmo, é o mesmo cara, tá?
[00:06:39] Não contente na matemática que ele foi pra biologia, tá?
[00:06:42] Principalmente a teoria da evolução.
[00:06:43] E tem uma coisa importante, né,
[00:06:45] que, para além do cientista, tem a pessoa.
[00:06:48] O Fisher, ele era anglicano.
[00:06:50] Ele era católico anglicano, né?
[00:06:52] Seguidor da rainha, tá?
[00:06:54] A rainha estava viva, né?
[00:06:56] Assim, era pequenininho,
[00:06:57] mas estava lá.
[00:06:58] Então, como ele era muito anglicano,
[00:07:00] tinha certas coisas da lógica de pensamento dele,
[00:07:03] era um pouquinho genista, até.
[00:07:04] Não tanto quanto o Galton, que era mesmo,
[00:07:07] e o Pearson, que eram mesmo.
[00:07:09] Ele era um pouco menos, mas, em inglês,
[00:07:11] começo do século XX, não tem quase você não ser colonialista, né?
[00:07:14] Tipo, é parte da identidade, sabe?
[00:07:16] É quase uma gíria, né, do ser inglês,
[00:07:19] começo do século XX, é ser meio colonialista.
[00:07:21] Não tem jeito, né?
[00:07:22] É muito mais forte.
[00:07:23] Mas tudo bem.
[00:07:23] Aí a história avançou, o Fisher fez esse livro,
[00:07:27] para biólogos.
[00:07:28] Uma parte dos biólogos pegaram,
[00:07:30] mas também o povo, na economia, sociologia e computação, pegou.
[00:07:34] Von Neumann se inspirou um pouquinho nesse livro,
[00:07:37] não totalmente, mas ele teve contato com esse livro.
[00:07:40] 1944, Von Neumann escreve a base, né?
[00:07:43] Teoria dos Jogos e Comportamento Econômico.
[00:07:45] O Von Neumann, basicamente, ele inaugura a área de teoria de jogos.
[00:07:49] E ele define o que é um jogo.
[00:07:51] Quando você vai pensar em teoria de jogos,
[00:07:52] não é jogar bola, não é futebol, não é isso.
[00:07:55] Ele define o que é um jogo.
[00:07:56] Então,
[00:07:57] um jogo é qualquer interação entre múltiplas pessoas,
[00:08:02] nas quais cada resultado do jogador
[00:08:05] é afetado pela decisão dos outros.
[00:08:08] Isso que configura um jogo, tá?
[00:08:09] É uma dinâmica em que qualquer coisa que eu faça
[00:08:12] afeta você e você me afeta.
[00:08:15] Tudo bem?
[00:08:15] Então, se eu faço uma coisa e pra você não faz diferença nenhuma,
[00:08:18] não é um jogo.
[00:08:19] E isso é importante.
[00:08:20] Tem que ser um jogo de interação, tá?
[00:08:22] Então, ele postula o que é um jogo,
[00:08:24] e aí ele coloca que relações econômicas,
[00:08:27] podem ser explicadas por meio de jogos,
[00:08:29] ele apresenta essa ideia,
[00:08:31] e aí a área começa a avançar, né?
[00:08:33] A partir daí.
[00:08:33] Isso na parte econômica, né?
[00:08:35] Então, você pensar de…
[00:08:37] A teoria de jogos é uma ótima forma
[00:08:39] de testar situações em que você é altruísta ou não.
[00:08:44] E aí surgem os dilemas,
[00:08:45] que fazem parte dos jogos.
[00:08:47] Nos links da descrição desse episódio,
[00:08:49] o primeiro link é de um site muito bonitinho,
[00:08:52] muito bem feito,
[00:08:53] que é a evolução da confiança.
[00:08:55] The Evolution of Trust.
[00:08:56] A evolução da confiança.
[00:08:59] Recomendadíssimo todo mundo entrar.
[00:09:01] Tem lá os bichinhos animadinhos pra você jogar.
[00:09:03] Tem dois bichinhos interagindo, você é um deles.
[00:09:06] E no meio tem uma tabela, dois por dois.
[00:09:09] Que é chamada tabela de payoff, né?
[00:09:10] Na teoria de jogos.
[00:09:12] E aí, dependendo da situação,
[00:09:13] você pode optar cooperar com o seu amigo ou não cooperar.
[00:09:17] E isso, caso você coopere,
[00:09:19] você tem um ganho, né?
[00:09:21] Você pode ter um ganho, caso o outro coopere.
[00:09:24] E se você não cooperar,
[00:09:25] você pode ter um ganho,
[00:09:26] caso o outro também não coopere.
[00:09:28] E aí, essas dinâmicas de teoria de jogos
[00:09:32] fazem a gente pensar numa situação que é o seguinte.
[00:09:35] Tipo, eu vou jogar com você, quem?
[00:09:37] Eu não sei o que você tá pensando.
[00:09:38] Então, eu posso cooperar
[00:09:40] na esperança de que você coopere.
[00:09:42] Mas eu não tenho certeza.
[00:09:44] Nesse caso, eu tô sendo altruísta.
[00:09:46] Eu tô cooperando com você
[00:09:47] no risco de eu não ganhar nada ou perder.
[00:09:50] Eu tô sendo altruísta.
[00:09:51] O meu ganho vem no futuro,
[00:09:53] mas agora eu tô tendo uma perda.
[00:09:54] E eu posso não cooperar.
[00:09:56] Se eu trair você e não cooperar,
[00:09:58] eu tenho um ganho próximo, né?
[00:10:00] Que eu traí, mas eu posso ter um ganho maior
[00:10:02] ainda no futuro, ou uma perda.
[00:10:04] Dependendo desse payoff,
[00:10:06] dessa matriz de payoffs.
[00:10:08] E aí, essa ideia gerou um dos primeiros dilemas,
[00:10:11] tem vários, mas eu vou mostrar só um,
[00:10:12] que é o dilema do prisioneiro.
[00:10:14] O dilema do prisioneiro é muito interessante.
[00:10:16] O Von Neumann, ele não escreve isso
[00:10:18] diretamente no livro, tá?
[00:10:19] Nesse livro de 44.
[00:10:21] Mas em outros textos dele, mostra
[00:10:23] que a sacada pra criar a ideia de jogos,
[00:10:26] vem do Platão.
[00:10:27] Vem lá do Platão, lá atrás.
[00:10:29] Platão escreveu um monte de coisas,
[00:10:30] mas dentro dos escritos dele,
[00:10:31] tem um livro famoso que chama O Banquete.
[00:10:33] Que ele fala várias coisas.
[00:10:35] Nesse livro O Banquete, o Platão descreve uma cena,
[00:10:38] que era uma batalha que aconteceu de verdade,
[00:10:40] a Batalha de Delium,
[00:10:42] que aconteceu em 424 a.C.,
[00:10:45] que era uma batalha do povo de Atenas,
[00:10:47] os atenienses, contra o povo da cidade de Tebas.
[00:10:50] Teve uma guerra.
[00:10:51] E Atenas que atacou Tebas.
[00:10:52] Tipo, ah, vou descer o cacete de vocês, foram lá.
[00:10:54] O exército ateniense,
[00:10:56] era maior que o exército de Tebas.
[00:10:58] Então, assim, eles estavam em desvantagem.
[00:11:00] E aí, o Platão descreve
[00:11:02] o pensamento de um soldado de Tebas.
[00:11:05] Tipo, o que o soldado estaria pensando?
[00:11:07] Então, assim, ó.
[00:11:08] Vista agora a farda de um soldado de Tebas.
[00:11:10] Quem?
[00:11:11] Lá fora, fora da cidade,
[00:11:12] tem um exército maior que o seu,
[00:11:14] e você é um soldado.
[00:11:15] Qual que é o primeiro pensamento do soldado?
[00:11:17] Pode ser que a gente consiga resistir ao ataque.
[00:11:20] Você concorda que você não é um soldado sozinho,
[00:11:22] você vai estar com outro soldado, certo?
[00:11:24] Sim.
[00:11:24] Vamos imaginar que você,
[00:11:26] você vai pra guerra,
[00:11:27] e a cidade resiste ao ataque.
[00:11:30] O fato da cidade resistir ao ataque de Atenas,
[00:11:33] é garantia de que você vai estar vivo no final?
[00:11:36] Claro que não.
[00:11:37] Não, por quê?
[00:11:37] Porque, tipo, em média,
[00:11:39] os soldados sobrevivem,
[00:11:40] mas você pode morrer.
[00:11:41] Claro.
[00:11:41] Você concorda?
[00:11:42] Pode ser que você seja atingido por um balaço, né?
[00:11:45] Então, assim,
[00:11:46] a defesa da cidade pode ser garantida,
[00:11:49] mas eu ainda tenho uma chance de morrer.
[00:11:51] Tudo bem?
[00:11:51] Esse é um cenário.
[00:11:52] O segundo cenário é,
[00:11:53] se a defesa da cidade falha,
[00:11:56] e a gente é invadido,
[00:11:57] com certeza eu morro.
[00:11:58] Dado que você, como soldado de Tebas,
[00:12:00] você tem esses dois cenários.
[00:12:02] A cidade resiste, mas eu tenho uma chance de morrer.
[00:12:05] Se a cidade não resistir, eu vou morrer com certeza.
[00:12:07] O que você, como soldado, faria?
[00:12:09] Resisto junto.
[00:12:10] Ótimo, ok.
[00:12:11] Exatamente.
[00:12:12] Tem alguma situação boa?
[00:12:13] Não.
[00:12:14] Não.
[00:12:14] Muito bem.
[00:12:15] As duas são…
[00:12:16] Uma é menos ruim, a outra é péssima.
[00:12:18] Sim, sim.
[00:12:19] Então, qual seria a conclusão natural do soldado?
[00:12:22] Dar no pé.
[00:12:23] Não é verdade?
[00:12:23] Ele não podia fugir, né?
[00:12:25] Sim.
[00:12:25] Aí, o Platão coloca um negócio.
[00:12:28] Tudo bem.
[00:12:28] Esse soldado que tá pensando isso, ele pode fugir.
[00:12:31] Mas e se todo mundo pensar isso?
[00:12:33] Fudeu.
[00:12:34] Lascou-se.
[00:12:35] Sim.
[00:12:35] Se todo mundo pensar isso, não é verdade?
[00:12:37] Claro.
[00:12:37] Então, essa é a ideia que o Von Neumann pegou do jogo.
[00:12:40] A questão não é o que você faz.
[00:12:42] Aham.
[00:12:43] Se todo mundo fizesse isso, sabe?
[00:12:46] É o contexto.
[00:12:47] Sim.
[00:12:47] Entende?
[00:12:48] Então, eu não posso pensar na sua resposta, quem fujoca.
[00:12:51] Eu tenho que pensar na proporção de pessoas como você respondendo.
[00:12:55] Essa é a ideia do jogo.
[00:12:57] Então, é um espaço de interação com vários agentes.
[00:13:00] Cada agente agindo em função do seu interesse individual.
[00:13:04] E o que eu quero ver é o resultado coletivo.
[00:13:07] Certo.
[00:13:07] Entende?
[00:13:08] Você entende agora por que o Von Neumann gostou desse problema?
[00:13:13] Por quê?
[00:13:13] Porque é um problema computacional.
[00:13:15] Porque tem vários agentes.
[00:13:17] E eu não quero saber o que cada agente faz.
[00:13:18] Eu quero saber o resultado coletivo.
[00:13:20] Você tem que computar.
[00:13:21] Hoje, a gente tem uma área enorme.
[00:13:23] Que é a…
[00:13:24] Computação baseada…
[00:13:25] Computação baseada em agente.
[00:13:26] Algoritmos baseado em agente.
[00:13:28] Que tudo bebe na fonte desse livro do Von Neumann.
[00:13:30] Da teoria de jogos.
[00:13:32] Então, o base inspirado no Platão.
[00:13:35] Surgiu o primeiro dilema, que é o dilema do prisioneiro.
[00:13:38] O dilema do prisioneiro é basicamente assim.
[00:13:40] Nós somos prisioneiros.
[00:13:42] A gente foi preso.
[00:13:42] Eu e você.
[00:13:44] E a gente não tem contato um com o outro.
[00:13:46] Eu não sei o que você vai fazer.
[00:13:48] Eu sei o que a gente fez.
[00:13:49] Mas eu não sei o que a gente vai fazer a partir dali.
[00:13:51] Os presos não se comunicam.
[00:13:53] E aí, assim…
[00:13:54] Dependendo do que a gente faz…
[00:13:55] Vai ter uma consequência.
[00:13:57] Que é o tempo que a gente vai ficar preso ou não.
[00:13:59] Então, assim…
[00:13:59] Se eu delatar você…
[00:14:01] Eu traio você.
[00:14:02] E você me trai…
[00:14:03] Nós dois somos presos por dois anos.
[00:14:06] Tudo bem?
[00:14:06] Tá?
[00:14:06] Ok.
[00:14:07] Beleza.
[00:14:08] Então, quando eu vou saber que você me traiu?
[00:14:11] Só no final.
[00:14:12] Quando eu descobrir que a gente foi preso dois anos…
[00:14:14] Falar…
[00:14:14] Ah, maldito, me traiu.
[00:14:15] Me delatou.
[00:14:17] Tudo bem?
[00:14:17] Você só vai saber depois.
[00:14:18] Você não tem como saber antes.
[00:14:20] Tá?
[00:14:20] Então, beleza.
[00:14:21] Se os dois traírem, ficam presos dois anos.
[00:14:23] Se eu trair você…
[00:14:24] E você ficar em silêncio…
[00:14:26] Você não fala nada, né?
[00:14:27] Quer dizer que você não me delatou.
[00:14:29] Eu sou livre.
[00:14:30] E você fica três anos na cadeia.
[00:14:32] Então, assim…
[00:14:32] Se eu delato você…
[00:14:34] E você não faz nada…
[00:14:36] Eu sou solto.
[00:14:37] E você fica três anos preso.
[00:14:39] Que é mais que dois.
[00:14:40] Certo.
[00:14:41] Então, você ser altruísta tem um custo.
[00:14:43] Tá?
[00:14:44] Beleza.
[00:14:44] Se nós dois ficarmos quietos…
[00:14:47] E a gente não delatar um outro…
[00:14:49] A gente só fica um ano na cadeia.
[00:14:51] Só um ano.
[00:14:51] Tá?
[00:14:52] Então, por exemplo…
[00:14:53] Se a gente for preso…
[00:14:54] E ficar um ano…
[00:14:55] Eu sei que você não me delatou.
[00:14:57] Se a gente ficar dois anos preso…
[00:14:58] Eu sei que você me traiu.
[00:15:00] Sim.
[00:15:00] Entendeu?
[00:15:01] E se você for libertado…
[00:15:02] Eu sei que o outro…
[00:15:03] Tipo…
[00:15:04] Você foi cuzão.
[00:15:05] Um foi cuzão com o outro.
[00:15:07] Então, esse é o jogo.
[00:15:08] Né?
[00:15:08] E a questão é…
[00:15:09] Quando você coloca isso numa matriz…
[00:15:11] Numa matriz 2x2…
[00:15:13] E coloca…
[00:15:14] O que você faria…
[00:15:15] Quem?
[00:15:15] E o que eu faria…
[00:15:17] À luz do desconhecimento do outro…
[00:15:19] A gente tem números.
[00:15:20] Tem quantidades.
[00:15:21] Né?
[00:15:21] Que gera uma matriz de payoffs.
[00:15:23] Essa ideia da matriz…
[00:15:24] De payoffs…
[00:15:25] Aí tem uma operação…
[00:15:26] Que é baseada em valor esperado.
[00:15:27] Não importa.
[00:15:28] Dependendo das quantidades…
[00:15:30] No experimento clássico…
[00:15:31] Era assim, né?
[00:15:32] Dois anos…
[00:15:33] Três anos…
[00:15:34] Se um traiu, o outro não.
[00:15:35] E um ano…
[00:15:35] Se os dois não traírem.
[00:15:37] Tá?
[00:15:37] Certo.
[00:15:38] E aí gera uma certa matriz.
[00:15:39] Você pode mudar os números.
[00:15:41] Aumentar as quantidades de anos…
[00:15:42] Ou diminuir.
[00:15:43] E dependendo da…
[00:15:44] Da proporção de anos…
[00:15:45] Presos ou não…
[00:15:47] As melhores estratégias…
[00:15:48] Podem mudar.
[00:15:49] Dependendo dos payoffs.
[00:15:50] Dependendo da quantidade de anos.
[00:15:52] Tá?
[00:15:52] Tá.
[00:15:53] No experimento clássico…
[00:15:54] Com dois anos…
[00:15:55] Três e um…
[00:15:56] Se você montar a matriz de payoff…
[00:15:58] Você vai verificar que o mais provável…
[00:16:00] O mais seguro…
[00:16:01] É os dois traírem.
[00:16:03] Porque se os dois traírem…
[00:16:05] Cada um vai ficar só dois anos.
[00:16:06] Se eu não trair você…
[00:16:07] E você me trair…
[00:16:08] Eu fico três.
[00:16:09] E eu não sei se você vai ser camarada também.
[00:16:11] Sabe?
[00:16:12] Uhum.
[00:16:12] Então…
[00:16:13] Olhando lá na matriz payoff…
[00:16:14] O melhor é trair.
[00:16:15] Os dois traírem.
[00:16:16] Mas de novo…
[00:16:17] Se eu mudar os payoffs…
[00:16:18] Muda a estratégia.
[00:16:20] Então…
[00:16:20] Pelo dilema do prisioneiro…
[00:16:22] O que que acontece?
[00:16:23] Dependendo do…
[00:16:24] Que você vai ganhar ou perder…
[00:16:26] Pode ser que você seja altruísta ou não.
[00:16:28] Então…
[00:16:29] Altruísmo é possível.
[00:16:31] É possível.
[00:16:31] Dependendo dos payoffs.
[00:16:33] Né?
[00:16:33] Tá.
[00:16:34] E uma outra coisa que isso…
[00:16:36] Não foi um desenvolvimento da época do…
[00:16:38] Von Neumann.
[00:16:38] Foi depois.
[00:16:39] O dilema do prisioneiro é feito uma vez.
[00:16:42] O clássico.
[00:16:42] Você só tem uma vez.
[00:16:44] Vai ser preso ou não.
[00:16:45] Tá.
[00:16:45] Quando o experimento é feito uma vez…
[00:16:47] Né?
[00:16:47] Aí tem a modelagem matemática.
[00:16:49] O melhor é trair.
[00:16:50] Com uma vez.
[00:16:51] Tá?
[00:16:51] Por isso que vale muito a pena você entrar lá no…
[00:16:54] No…
[00:16:54] Solution of Trust pra ver o bichinho jogando.
[00:16:56] E você jogar como se fosse um bichinho.
[00:16:58] Com uma vez…
[00:16:59] Eu não sei como você é.
[00:17:01] Eu não tenho informação.
[00:17:02] Eu vou trair.
[00:17:02] O problema é que quando…
[00:17:03] Quando você itera…
[00:17:05] Quando você tem vários relacionamentos assim.
[00:17:07] Vários jogos.
[00:17:08] Né?
[00:17:08] Quando tem jogos iterados…
[00:17:10] Em que eu sei o seu resultado anterior…
[00:17:13] A dinâmica muda.
[00:17:14] Né?
[00:17:14] Então…
[00:17:15] Quando…
[00:17:16] Quando os primeiros artigos de dilema do prisioneiro saíram…
[00:17:19] Pós-guerra, né?
[00:17:19] Ano 50…
[00:17:21] Qual que era a coisa?
[00:17:22] O ser humano é cuzão mesmo.
[00:17:23] Né?
[00:17:24] O ser humano era zoado mesmo.
[00:17:25] Porque, ó…
[00:17:26] Aí o Von Neumann…
[00:17:27] Os artigos que vieram depois…
[00:17:28] Mostrava que a gente rouba mesmo.
[00:17:30] Né?
[00:17:31] Numa interação que a gente não conhece o outro.
[00:17:33] Melhor é trair.
[00:17:34] Aí…
[00:17:34] Outro discurso aparecendo.
[00:17:36] Outro meme.
[00:17:37] Beleza?
[00:17:38] Aí o que que precisava acontecer, né?
[00:17:40] Porque o Von Neumann…
[00:17:41] Os caras da teoria de jogos faziam isso na mão.
[00:17:44] E o que que eu precisava ver?
[00:17:45] Você no longo prazo.
[00:17:46] Com várias interações.
[00:17:47] Aí precisava da computação.
[00:17:49] Precisava da computação.
[00:17:50] Ano 60, 70…
[00:17:52] Quando a computação surgiu?
[00:17:54] E começou-se a se fazer modelos de dilema do prisioneiro.
[00:17:58] Aí surgiram outros.
[00:17:59] Dilema do ultimato.
[00:17:59] Enfim.
[00:18:00] Iterados.
[00:18:01] Com repetição.
[00:18:02] Várias repetições.
[00:18:03] Começou-se a ver…
[00:18:05] Que no longo prazo…
[00:18:06] Dado que eu conheço você…
[00:18:08] Por exemplo…
[00:18:08] Eu sei os seus resultados anteriores.
[00:18:10] Em média, no dilema do prisioneiro, é melhor você cooperar.
[00:18:13] Hum…
[00:18:14] Quando eu sei que eu vou interagir com você várias vezes…
[00:18:18] O melhor é cooperar.
[00:18:19] Quando eu interajo com você uma vez…
[00:18:21] O melhor é trair.
[00:18:22] Tá.
[00:18:22] Repare…
[00:18:23] Mas assim…
[00:18:23] Essa…
[00:18:24] Conclusão foi tirada a partir da matemática.
[00:18:30] De simulação matemática computacional.
[00:18:32] Muito bem.
[00:18:33] Muito bem.
[00:18:33] Mas o que é que…
[00:18:35] Como é que você explicaria de uma forma não matemática essa mudança?
[00:18:42] Isso.
[00:18:42] Agora voltemos lá no começo do episódio pra pegar outro ramo da biologia.
[00:18:45] Porque foi pro outro lado também.
[00:18:46] Não esqueça do Fischer, né?
[00:18:48] Voltando.
[00:18:49] Quem já chamou muito bem.
[00:18:50] Fischer.
[00:18:50] Lá atrás.
[00:18:51] Voltou.
[00:18:51] 1930.
[00:18:52] Escreveu o livro lá da teoria da seleção natural.
[00:18:54] Beleza.
[00:18:54] Aí foi pra biologia.
[00:18:55] Agora a gente foi aqui pra matemática.
[00:18:56] Teoria dos jogos.
[00:18:57] Quando a gente fala, por exemplo, do Nash.
[00:18:59] Ganhou o Nobel.
[00:19:00] Aquele filme lá.
[00:19:01] Mente brilhante.
[00:19:02] Eu não gosto daquele filme.
[00:19:03] Mas tudo bem.
[00:19:03] Aquela coisa toda.
[00:19:04] O John Nash, ele criou um conceito que chama equilíbrio de Nash.
[00:19:08] Tá?
[00:19:08] O que que é equilíbrio de Nash?
[00:19:10] Nessa matriz de pay-offs, quando você faz as contas e percebe que só tem uma alternativa
[00:19:16] possível, ou seja, independente do que um agente faça, ou do que o outro faça, a
[00:19:21] melhor solução é sempre a mesma?
[00:19:24] O sistema está em equilíbrio de Nash.
[00:19:26] Isso que quer dizer equilíbrio de Nash.
[00:19:28] Quando eu tenho uma matriz de agentes, quando todos os agentes meio que concordam, mesmo
[00:19:34] sem saber do outro, que a melhor estratégia é uma, o sistema tá em equilíbrio.
[00:19:38] Vai convergir pra uma coisa só.
[00:19:40] E aí ele, é uma definição matemática, né?
[00:19:42] Ele definiu a ideia de equilíbrio de Nash.
[00:19:45] Então tem situações que tem equilíbrio de Nash e tem situações que não.
[00:19:48] E aí tem toda uma linha de pesquisa estudando isso.
[00:19:51] Quando acontece, quando não acontece, enfim.
[00:19:53] Beleza.
[00:19:53] Na biologia.
[00:19:54] Voltando de novo.
[00:19:55] Um rapaz, entre muitos, vou citar só os nomes, Haldane, o…
[00:20:00] Haldane era mais teórico, né?
[00:20:01] Mas o grande cara disso que pegou essa ideia da teoria do Fischer e falou, ó, vou aplicar
[00:20:06] aqui na biologia.
[00:20:07] Só que eu não vou usar computação.
[00:20:09] Eu vou usar genética de população.
[00:20:12] Eu vou ficar investigando, por exemplo, aves migratórias.
[00:20:15] Ou organismos mesmo.
[00:20:17] Que é o Hamilton.
[00:20:18] O Hamilton, ele instaura uma área, junto com outros pesquisadores, que é chamada
[00:20:22] seleção de parentesco.
[00:20:24] O que que é seleção de parentesco?
[00:20:26] Ele pegou a teoria do Fischer, falou, tudo bem, pra eu ser altruísta, altruísmo tem que
[00:20:30] passar nos genes, de algum jeito.
[00:20:32] Se tem que passar nos genes, tem que, assim, se eu sou puramente altruísta, eu morro.
[00:20:38] Porque se eu der todos os meus bens, tudo que eu tenho, as pessoas pegam, mas meus
[00:20:41] genes não passam.
[00:20:43] Ou seja, eu tenho um custo muito alto, a custa de sobrevivência dos outros.
[00:20:46] Meus genes não passam, o gene altruísta não anda.
[00:20:49] Ele cria essa ideia de seleção de parentesco, que é assim.
[00:20:51] Por exemplo, quem, ó.
[00:20:52] Imagina que a gente é irmão.
[00:20:53] Eu não tenho filhos e você tem.
[00:20:56] Você tem um filho, né?
[00:20:57] O seu filho tem uma parte dos meus genes, porque a gente é irmão, tudo bem?
[00:21:02] O seu filho tem uma parte dos meus genes.
[00:21:05] Mesmo eu não tendo filhos, se eu ajudar você a cuidar do seu filho, de forma altruísta,
[00:21:10] então, eu ajudo o seu filho a sobreviver, mesmo com um custo meu.
[00:21:16] Mesmo assim, meus genes estão passando na frente, pra frente, entendeu?
[00:21:19] Então, a ideia que o Hamilton coloca, depois o Dawkins expande.
[00:21:23] Enfim, a ideia do gene egoísta, né?
[00:21:26] Que o que é selecionado pela seleção natural não é o indivíduo, é o gene.
[00:21:31] É sempre o gene, tá?
[00:21:33] Na genética de população.
[00:21:34] É sempre o gene.
[00:21:35] Então, o Hamilton falou, não, existe o altruísmo, mas dentro, com relação de parentesco.
[00:21:41] Só na relação de parentesco.
[00:21:43] Então, aí ele criou uma regra, uma equação que se chama regra de Hamilton.
[00:21:47] Que é uma equação simples.
[00:21:48] É R vezes B maior que C.
[00:21:51] R vezes B maior que C.
[00:21:52] Tá?
[00:21:53] O que que é o R?
[00:21:55] O R é a proporção de genes que eu e você compartilhamos.
[00:21:59] Se a gente é parente, a gente compartilha genes.
[00:22:02] Quanto mais genes a gente compartilha, né?
[00:22:04] Maior o R.
[00:22:05] O que que é o B?
[00:22:07] O B é o benefício para a sua prole.
[00:22:10] O quanto, qual o grau de benefício que o seu filhote vai ter.
[00:22:13] R vezes B.
[00:22:14] Então, o quanto de genes a gente compartilha,
[00:22:17] e o quanto de benefício vai ser gerado pelo meu altruísmo,
[00:22:21] isso tem que ser maior.
[00:22:23] Do que o custo que eu tenho em ser altruísta.
[00:22:26] Tudo bem?
[00:22:27] Então, a minha perda, a minha perda não pode ser maior
[00:22:30] do que o quanto a gente é aparentado
[00:22:33] e a quantidade de benefício que eu vou dar.
[00:22:36] Tudo bem?
[00:22:36] Se essa equação vale, se R vezes B é maior que C,
[00:22:39] acontece o altruísmo.
[00:22:41] É isso.
[00:22:42] E aí, o que que o Hamilton começou a ver?
[00:22:43] Várias espécies, começou a investigar aves, peixe, um monte de coisa.
[00:22:47] E ele verificou que tem várias situações em que acontece.
[00:22:50] Quando essa regra é satisfeita,
[00:22:53] o organismo ajuda o outro.
[00:22:55] E aí, assim, tem artigos recentes.
[00:22:57] Por exemplo, tem um artigo que é de 2017,
[00:23:01] que mostra, por exemplo, que bonobos, macacos,
[00:23:05] especificamente bonobos,
[00:23:07] são, em certos contextos, ligados à regra de Hamilton,
[00:23:12] eles dividem comida.
[00:23:14] Dependendo da situação, ele divide comida.
[00:23:17] Em geral, a gente tem uma tendência a dividir comida com criança,
[00:23:20] com o filhote.
[00:23:20] Certo.
[00:23:21] Mas eles dividem comida com pares, mesmo.
[00:23:24] O que é muito impensado.
[00:23:26] Então, isso acontece com…
[00:23:27] Já foi documentado nesse artigo com bonobos,
[00:23:30] outros símios também.
[00:23:32] Mas isso já foi visto, por exemplo, em réptil.
[00:23:34] Réptil, ave…
[00:23:36] Faz isso também.
[00:23:37] Divide comida, em certos contextos.
[00:23:39] Não é qualquer contexto.
[00:23:40] Tá vendo que isso liga com a coisa da teoria de jogos?
[00:23:42] Que é o payoff?
[00:23:44] Sim.
[00:23:44] Aquela matriz de payoff?
[00:23:45] Dependendo do payoff, parece que a estratégia mais adaptativa é cooperar.
[00:23:50] Tá?
[00:23:51] Tem uma certa reciprocidade.
[00:23:52] Sobretudo entre parentes.
[00:23:54] Né?
[00:23:55] Hamilton, bacana mesmo.
[00:23:57] Fez isso aí, escreveu vários artigos.
[00:23:59] Artigo na Science, na Nature, papapá.
[00:24:01] Né?
[00:24:01] Então, o povo da biologia tava correndo em paralelo com o povo da teoria dos jogos.
[00:24:05] Tava lá.
[00:24:06] Beleza.
[00:24:06] Né?
[00:24:07] Aí, tem um aluno do Hamilton, que aí é uma história, assim…
[00:24:11] Esse episódio é em homenagem a ele.
[00:24:14] Se você não conhece, busca uma fotinho dele.
[00:24:17] Puxa, o cara bacana.
[00:24:19] George Price.
[00:24:19] George Price foi aluno do Hamilton, né?
[00:24:23] Mais novo, né?
[00:24:24] Que o Hamilton…
[00:24:25] O Hamilton era biólogo mesmo.
[00:24:26] Etólogo, né?
[00:24:27] Biólogo, geneticista de população, uma coisa assim.
[00:24:30] Bem biológicos, né?
[00:24:31] O George Price, ele era físico de formação.
[00:24:34] Tá?
[00:24:34] Bem exatas, né?
[00:24:36] Físico.
[00:24:37] Mas ele sempre foi interessado…
[00:24:39] Ele teve, inclusive, iniciativas de divulgação científica.
[00:24:44] Isso nos anos 50 e 60.
[00:24:46] Muito interessante, assim.
[00:24:47] Ele foi visionário em algumas áreas.
[00:24:49] Trabalhou como jornalista de ciência.
[00:24:51] Antes de ir pra carreira acadêmica mesmo.
[00:24:53] Então, ele foi um pouquinho mais velho.
[00:24:55] E quando ele foi…
[00:24:56] Uma base em matemática grande.
[00:24:58] Ele pegou esse livro do Fisher, que era matemático e estatístico, e foi ler com calma.
[00:25:02] E aí, o Fisher, por ser anglicano, ele era meio Tim e Tom Hobbes, assim.
[00:25:07] Thomas Hobbes.
[00:25:08] Se você não acredita em Nosso Senhor, boa pessoa você não é.
[00:25:11] Sabe?
[00:25:12] Ele tinha um negócio meio assim, né?
[00:25:14] E o George Price, ateu, né?
[00:25:15] Também, ele falou…
[00:25:16] Mano, não é assim, não.
[00:25:18] Eu não sei o vínculo do George Price com o Newton.
[00:25:19] Mas tinha algumas coisas a ver, talvez, herança, né?
[00:25:22] Da época, né?
[00:25:23] O George Price ficava olhando pro…
[00:25:25] Falando, essas contas são legais.
[00:25:27] Essas contas que o Fisher fez foram legais.
[00:25:29] Mas o que ele acha da conta é meio zoado.
[00:25:30] Eu acho…
[00:25:32] Aí, o George Price se colocou uma hipótese.
[00:25:34] Ó, eu sou aluno do Hamilton.
[00:25:36] Hamilton fez a regra de Hamilton.
[00:25:37] Beleza.
[00:25:38] Eu vou pegar essa regra de Hamilton e vou generalizar elas.
[00:25:41] Por quê?
[00:25:42] Porque tinha várias críticas à teoria do Hamilton.
[00:25:44] Porque tinha várias situações em que a regra do Hamilton não se aplicava.
[00:25:48] E os indivíduos…
[00:25:49] Os organismos cooperavam.
[00:25:51] E tinha outras situações em que os organismos não cooperavam.
[00:25:53] E a regra de Hamilton valia.
[00:25:55] Então, faltava amarrar uma coisa.
[00:25:57] O George Price chegou àquilo.
[00:25:58] Não, vou arrumar a matemática disso aí.
[00:26:00] Aí, começou a estudar a covariança dos genes.
[00:26:02] Botou lá toda uma teoria estatística de covariança, tal, tal, tal.
[00:26:04] Aham.
[00:26:05] Aí, já em 1969, 70, ele criou uma sistematização do modelo do Hamilton.
[00:26:10] E criou a grande equação, que aí é chamada Lei de Equilíbrio de Price.
[00:26:14] Ele mostrou, categoricamente, matematicamente,
[00:26:18] que a cooperação…
[00:26:19] Que o altruísmo existem e são adaptativos.
[00:26:23] Mesmo.
[00:26:23] Ele mostrou isso.
[00:26:24] Chegou.
[00:26:25] Chupa, Fischer.
[00:26:26] Matematicamente.
[00:26:27] Matematicamente.
[00:26:28] Mostrou.
[00:26:28] Inclusive, tem um artigo…
[00:26:29] Esse Price é aquele da tabela Price, ou não?
[00:26:32] Não.
[00:26:33] Não.
[00:26:33] Esse é outro cara.
[00:26:35] O Price aparece em várias coisas, né?
[00:26:36] Mas esse George Price…
[00:26:38] Coitado.
[00:26:38] Ele mostrou isso, matematicamente.
[00:26:40] Mas aí volta no seu ponto, Ken.
[00:26:42] Que era a sua pergunta anterior.
[00:26:43] Tudo bem.
[00:26:44] O cara veio ali, teoria dos jogos, caiu na matemática.
[00:26:46] Mostrou uns negócios, equilíbrio de Nash.
[00:26:48] O outro veio, caiu na matemática.
[00:26:49] Como é que a gente transcende isso?
[00:26:51] Isso atormentava a cabeça, assim como o de Cade Fudioka,
[00:26:54] atormentava a cabeça do coitado George Price.
[00:26:57] Certo.
[00:26:58] E aí, a história fica tristíssima.
[00:27:00] Porque o que acontece?
[00:27:01] George Price era ateu mesmo, né?
[00:27:03] Assim, tinha essa pegada física e ciência, tal, tal, tal.
[00:27:06] Não se sabe muito bem, tem uma hipótese, né?
[00:27:08] Que o George Price, ele sofria com problemas da tireoide.
[00:27:12] Ele tinha problemas idiopáticos, né?
[00:27:14] Da tireoide.
[00:27:15] Inclusive, fizeram um estudo de caso da vida dele.
[00:27:19] Por quê?
[00:27:19] É, é…
[00:27:20] Pra quem tem problema na tireoide, sabe que muitas vezes dá desregulação de humor,
[00:27:24] você fica mais desanimado, coisas do tipo.
[00:27:26] Tem que fazer suplementações, aí é um tema pra outro episódio, só isso.
[00:27:30] Mas no caso do George Price, parece que esse problema de tireoide recorrente
[00:27:34] gerou um problema mental nele.
[00:27:36] E aí ele começou…
[00:27:38] Ele começou a ter problemas sérios, assim, de depressão grave.
[00:27:41] E aí ele começou a mudar algumas coisas.
[00:27:43] Assim, ele não era religioso, mas ele achava…
[00:27:47] Ele queria achar uma prova material.
[00:27:49] Da teoria dele.
[00:27:50] Não bastava matemática.
[00:27:51] Certo.
[00:27:52] Então, o que que ele fez?
[00:27:53] Ele se separou da esposa, que era casado, e ele começou a ser caridoso ao extremo.
[00:27:59] Ele trazia pessoas que moravam na rua pra morar na casa dele.
[00:28:03] Entendi.
[00:28:03] E, eventualmente, as pessoas roubavam ele, sabe?
[00:28:06] E aí ele começou a perder as coisas, e aí a coisa começou a ficar pior, sabe?
[00:28:10] Cada pessoa que tripudiava em cima dele, ele ficava mais deprimido.
[00:28:13] E, ao mesmo tempo, ele tentava ajudar mais.
[00:28:15] Sabe?
[00:28:15] Esse ciclo.
[00:28:16] E aí, assim, uma parte era em relação a isso.
[00:28:19] Essa confiança que ele tinha nos resultados dele, e o desejo que ele tinha de ver isso acontecendo na prática,
[00:28:25] de que o altruísmo acontece na natureza mesmo, em parte também por conta dessa doença.
[00:28:30] E aí a depressão foi ficando mais grave, ele não se tratava, e, infelizmente, ele acabou se suicidando.
[00:28:35] Infelizmente, né?
[00:28:36] Caraca.
[00:28:36] Foi uma história tristíssima.
[00:28:38] Recomendo um livro fantástico, que é uma biografia dele, junto com uma mostração da teoria dele,
[00:28:44] que, inclusive, faz um jogo de palavras com o nome dele, que chama The Price of Altruism.
[00:28:49] Né?
[00:28:49] O preço do altruísmo, né?
[00:28:50] Tem um belíssimo livro.
[00:28:52] Belíssimo.
[00:28:53] Tem uma história que poderia ter virado um filme já, né, Antônio?
[00:28:57] Poderia.
[00:28:58] Poderia mesmo.
[00:28:59] Né?
[00:28:59] Não sei porque não fizeram ainda.
[00:29:01] O livro belíssimo, inclusive, tem as continhas, mostra lá os primeiros experimentos do George Price,
[00:29:06] do falcão e da pomba, que, em vez de ser o dilema do prisioneiro, era um falcão e uma pomba.
[00:29:11] E aí ele fazia os experimentos com base nisso.
[00:29:13] Ele criou o conceito de estratégia evolutivamente estável.
[00:29:17] Então, o equilíbrio de Nash na economia…
[00:29:19] É equivalente à estratégia evolutivamente estável na genética de população.
[00:29:23] É a mesma coisa, né?
[00:29:25] Surgiu a mesma coisa.
[00:29:26] É muito mais provável o Nash ter chupinhado o George Price do que o contrário.
[00:29:30] De várias ideias, assim, que ele pegou da biologia e trouxe pra economia.
[00:29:34] Mas, enfim.
[00:29:35] História triste.
[00:29:36] No enterro do George Price só estava o Hamilton, que foi o orientador dele,
[00:29:41] e o Maynard Smith, da academia.
[00:29:43] Toda a academia rejeitou ele.
[00:29:45] Só estava os dois, o Maynard Smith, que escreveu coisas com ele também,
[00:29:49] uma pessoa fantástica.
[00:29:50] E o Hamilton.
[00:29:51] Mas tinha uma multidão de pessoas da comunidade.
[00:29:55] Uma multidão de pessoas acompanharam o enterro dele.
[00:29:58] Situação tristíssima, mas um mito.
[00:30:00] Uma pessoa fantástica.
[00:30:01] Procure uma fotinho dele, veja a carinha dele, pelo menos.
[00:30:04] Foi o ateísmo dele que fez com que ele fosse rejeitado socialmente?
[00:30:09] Não, foi exatamente essa posição que ele não assumia uma posição de cientista, sabe?
[00:30:15] Ele queria realmente mostrar que existe bondade.
[00:30:18] Sabe?
[00:30:19] E entrou nessa pira de doar tudo, de dar tudo.
[00:30:23] E imagina, ainda na Inglaterra, sabe?
[00:30:25] Você ser um cientista que não anda de externo, parece o Harry Potter, sabe?
[00:30:29] Sabe essa coisa de não pertencer ao grupo?
[00:30:31] Começou e caiu no ostracismo.
[00:30:33] Um pecado.
[00:30:34] E aí o que aconteceu?
[00:30:35] George Price felizmente morre.
[00:30:37] Um outro aluno, né?
[00:30:38] Do Hamilton e do Price.
[00:30:40] Aí já era anos 80, anos 80 e 90, o que surgiu?
[00:30:43] Quem?
[00:30:43] Quem começou a trabalhar, que foi o ganha-pão do começo da vida do quem?
[00:30:46] Computador.
[00:30:46] Começou a surgir o computador.
[00:30:47] Aí colocaram.
[00:30:49] As equações de Price no computador pra operar.
[00:30:51] O que aconteceu?
[00:30:52] Foi provado de verdade.
[00:30:53] O equilíbrio de Price existe.
[00:30:55] De fato.
[00:30:56] E modela dados de vários organismos.
[00:30:58] Muito melhor que a equação de Hamilton.
[00:31:00] Fantástico.
[00:31:01] Uma história fantástica que tem que ser publicizada.
[00:31:03] Então veja, assim, ó.
[00:31:04] O equilíbrio de Nash gerou o filme do Nash, mas não importa.
[00:31:07] O negócio de George Price também na biologia mostrou.
[00:31:09] Então, temos mostrações causais que no nível da causa final da espécie,
[00:31:14] no pool genético, ser altruísta vale a pena.
[00:31:17] Em alguns contextos.
[00:31:19] A ideia é essa.
[00:31:20] A ideia não é ser altruísta sem critério.
[00:31:22] Você tem que ser altruísta com critério.
[00:31:24] Levando em conta o que acontece no ambiente.
[00:31:26] E aí é por isso que o nome altruísmo, ele não é bom.
[00:31:30] É melhor cooperação.
[00:31:31] Que é o que a gente falou no episódio 341.
[00:31:33] No episódio 1 você mencionou, né?
[00:31:35] O episódio que a gente fez sobre cooperação.
[00:31:38] Na parte 1, perdão.
[00:31:40] Desse episódio duplo você mencionou.
[00:31:43] E eu tava pensando mesmo nessa palavra, né?
[00:31:45] Porque quando você me fez a pergunta,
[00:31:47] no início dessa parte,
[00:31:49] aqui, desse episódio,
[00:31:50] e eu respondi sobre altruísmo,
[00:31:52] eu tava pensando em cooperação.
[00:31:55] Eu tava pensando sobre
[00:31:56] exatamente algumas dinâmicas
[00:31:59] que já existem na natureza
[00:32:01] e que são de cooperação mútua
[00:32:03] pela sobrevivência
[00:32:05] das duas partes envolvidas.
[00:32:07] Ou de mais de duas, não é isso?
[00:32:08] Exatamente. E aí você vê que o termo altruísmo
[00:32:11] é um termo cristão.
[00:32:12] Volta na crítica do Nietzsche de novo.
[00:32:14] De você, assim,
[00:32:16] você ajudar alguém
[00:32:18] sem olhar a quem,
[00:32:19] esse quem tem que fazer parte do seu grupo.
[00:32:21] Essa é a pegada.
[00:32:22] Essa é a pegada que agora a gente começa a fechar o episódio.
[00:32:25] Essa aqui é a pegada marota, que é um conflito.
[00:32:27] Assim, o que a teoria de jogos mostra
[00:32:29] e o que a teoria de jogos evolutiva
[00:32:32] mostra, né? Aplicada à seleção natural,
[00:32:34] mostra, é que o indivíduo
[00:32:36] ele tá em conflito o tempo inteiro
[00:32:37] entre ele e o ambiente.
[00:32:39] E aí tem os artigos mais recentes, né?
[00:32:40] Que mostram isso melhor.
[00:32:42] Assim, tudo bem. Então o George Price mostrou
[00:32:44] que no nível da causa final
[00:32:45] do pulo genético da espécie,
[00:32:47] ser cooperador
[00:32:49] ou altruísta vale.
[00:32:51] Na espécie, não pra você.
[00:32:53] Pelo Von Neumann, teoria de jogos
[00:32:55] mostra que se você tiver
[00:32:57] uma interação uma vez com uma pessoa,
[00:32:59] o melhor é trair.
[00:33:01] Mas se você tem uma interação com uma pessoa,
[00:33:03] o melhor é cooperar.
[00:33:04] Porque você não conhece muito a estratégia do outro.
[00:33:07] Legal. Tudo bem.
[00:33:08] Aí vem os experimentos mostrando,
[00:33:10] aí eles começaram a estudar crianças.
[00:33:12] Crianças pequenas, né? E adultos.
[00:33:15] Então, por exemplo, já aconteceu
[00:33:17] de você fazer um…
[00:33:19] Uma coisa, por exemplo,
[00:33:20] não precisa contar o exemplo, mas pense numa situação
[00:33:23] em que você fez bem pra alguém.
[00:33:24] Tipo, comprou um presente. A pessoa não esperava,
[00:33:27] não era aniversário, não era nada.
[00:33:28] Falou, ó, pensei em você e te dei um presente.
[00:33:31] Pense no que você sentiu
[00:33:32] quando deu o presente. O que você sentiu?
[00:33:35] Me senti bem.
[00:33:37] Assim, você se sentiu
[00:33:38] quentinho.
[00:33:40] É, um quentinho.
[00:33:42] Isso, se sentiu poxa, se sentiu feliz.
[00:33:44] E olha que nesse exemplo que eu tô pensando,
[00:33:46] a pessoa sequer sabe que veio de mim.
[00:33:49] Ah, então. Ótimo. Melhor ainda esse exemplo.
[00:33:51] É o dilema do prisioneiro invertido, né?
[00:33:53] Melhor ainda.
[00:33:54] Então, você fez isso. Você fala, poxa, bacana.
[00:33:57] Você nem se sente,
[00:33:58] você nem se acha uma pessoa melhor, mas você sente
[00:34:00] que as coisas fizeram sentido.
[00:34:02] Tipo, poxa, aconteceu o que eu esperava
[00:34:04] e foi bom, né?
[00:34:05] Da onde vem essa sensação?
[00:34:09] Porque isso é universal.
[00:34:10] Essa sensação é inata.
[00:34:12] Essa sensação de você fazer bem pra alguém,
[00:34:14] mesmo que a pessoa saiba,
[00:34:15] o fato de você se sentir reforçado
[00:34:18] pelo fato do outro
[00:34:19] se sentir bem com aquilo que você fez,
[00:34:21] é inato. Isso é.
[00:34:24] E isso tem a ver
[00:34:25] com a empatia, né?
[00:34:27] A gente tem o naruhodo 369,
[00:34:29] se é mais difícil fazer amigos quando a gente fica mais velho,
[00:34:32] eu fico explicando os graus de empatia.
[00:34:34] Os tipos de empatia.
[00:34:35] Aqui, nesse contexto, tô falando dessa empatia
[00:34:37] mais simples mesmo. Tipo,
[00:34:39] eu fiz alguma coisa e eu sei
[00:34:41] que você ficou feliz e eu vejo
[00:34:43] isso, eu me sinto feliz.
[00:34:45] Por empatia emocional mesmo, né?
[00:34:48] E isso reforça.
[00:34:49] Isso é um reforço.
[00:34:50] E não é uma aprendizagem social.
[00:34:53] A gente tem essa predisposição.
[00:34:56] E aí eu lembro de uma frase muito boa
[00:34:57] do Santo Agostinho. Santo Agostinho era um filósofo
[00:35:00] toda zoeira também. Tudo bem que virou santo, né?
[00:35:02] Mas ele virou santo porque ele…
[00:35:03] Eu acho que Santo Agostinho virou santo porque ele
[00:35:05] rebolou muito pra não ser queimado.
[00:35:07] Fodou muito pouco, sabe?
[00:35:09] E, mano, Santo Agostinho falava um negócio
[00:35:11] que era muito básico. Ele falava assim,
[00:35:13] abre aspas,
[00:35:15] o quão bom é ser bom?
[00:35:18] Elas seriam boas por egoísmo.
[00:35:20] Não é muito boa?
[00:35:21] Não é muito boa. É muito bom mesmo, né?
[00:35:24] Porque reflete isso, sabe?
[00:35:26] O conflito entre cooperação, altruísmo,
[00:35:28] o ambiente, entre você e o indivíduo, né?
[00:35:30] Você e o ambiente. Então, assim,
[00:35:32] parece que essa sensação de
[00:35:34] ajudar o outro e ver o bem acontecendo
[00:35:36] reforça a gente, né?
[00:35:37] E eu disse que é algo inato.
[00:35:40] Mas como é que você descobriu isso, que é algo inato?
[00:35:42] Experimentos. Eu vou apresentar o experimento
[00:35:44] primeiro. O experimento 2017.
[00:35:45] Em que eles fizeram no tablet.
[00:35:48] Imagina, assim, dois círculos.
[00:35:50] E os círculos com uma carinha de mal.
[00:35:52] Bem um smile mesmo, só que
[00:35:53] com carinha de mal, tá?
[00:35:55] E esses círculos, eles ficavam batendo um no outro.
[00:35:58] Como se estivesse dando a sensação que eles estavam
[00:35:59] brigando. Bem esquemático.
[00:36:01] E aí, do lado das bolinhas, tinham dois quadradinhos.
[00:36:04] Tinha um quadradinho verde e um quadradinho laranja.
[00:36:06] Aí estavam lá, as bolinhas batendo.
[00:36:08] Com carinha de mal. Brigando.
[00:36:09] O quadradinho verde, ele
[00:36:11] apartava a briga. Ele saía
[00:36:13] de onde ele estava e batia nos quadradinhos.
[00:36:15] Assim, entrava no meio deles.
[00:36:17] O quadradinho verde. Tá. O quadradinho
[00:36:19] laranja ficava parado. Não fazia nada.
[00:36:22] Tinha olhinhos. Os quadradinhos
[00:36:23] também tinham olhinhos. Olhavam. Estavam olhando
[00:36:25] pra situação. Um não fazia nada, o outro
[00:36:27] apartava a briga.
[00:36:29] Certo. Beleza. Aí depois
[00:36:31] eu mostrei esse videozinho, né, pro…
[00:36:34] Era com crianças, né?
[00:36:35] Mostrei esses videozinhos pras criancinhas.
[00:36:37] E depois, eu trazia dois
[00:36:39] cubos de pelúcia. Um cubo verde
[00:36:41] igualzinho ao que estava no desenho.
[00:36:43] E um cubo laranja.
[00:36:45] Mostrava pra criança e
[00:36:46] esperava, né? Qual
[00:36:49] cubo ela preferia interagir.
[00:36:51] E brincar. O experimento foi feito com
[00:36:53] vinte crianças. Das vinte,
[00:36:55] dezessete pegaram o cubo verde.
[00:36:57] Que é o cubo que apartou a briga.
[00:36:59] Dezessete de vinte. Dezessete de vinte.
[00:37:02] Pergunta. Qual era a
[00:37:03] idade média das crianças que participaram
[00:37:05] desse experimento? Ó, é um tablet,
[00:37:07] você vendo as bolinhas e tal. Aí eu dou
[00:37:09] dois cubinhos, você escolhe um.
[00:37:11] Qual a idade média, que você acha,
[00:37:13] das crianças que participaram desse experimento?
[00:37:15] Vou chutar aqui…
[00:37:18] Vou chutar
[00:37:19] dez anos. Dez anos.
[00:37:22] Tá. Então, o que que mostra
[00:37:23] no resultado, né? Que as criancinhas
[00:37:25] majoritariamente preferiram o cubo verde
[00:37:27] porque é o cubo que no
[00:37:29] desenho ajudou, né? Apartou a
[00:37:31] briga. Uhum. Essas crianças tinham
[00:37:33] em média quatro meses de vida.
[00:37:35] Ah, você tá zoando.
[00:37:38] Tá o artigo na descrição.
[00:37:39] Quatro meses. Meses.
[00:37:41] Elas não sabiam falar. Elas só olhavam.
[00:37:43] Uhum.
[00:37:45] Paper da Science. Fantástico.
[00:37:47] Então, assim, muito, muito cedo
[00:37:49] a criança consegue perceber
[00:37:51] a cooperação. Esquemas de
[00:37:53] coalizão, sabe? Uhum. Tipo, ah, esse
[00:37:55] cara fez bem, é melhor eu ficar
[00:37:57] com ele. Sabe? Melhor eu apoiar.
[00:37:59] Sim. Ou perceber sensações
[00:38:01] de desigualdade, sabe? Que um tá maltratando
[00:38:04] o outro, a criança fica mais perto de quem
[00:38:05] tá ajudando. Sabe? Sim.
[00:38:07] Então, isso é
[00:38:09] muito cedo. Antes da linguagem
[00:38:11] aparece essa disposição a cooperar.
[00:38:13] Sabe? Ou cooperar com o
[00:38:15] cooperador. Uhum. Sabe? Que é o
[00:38:17] cubinho verde. Eu coopero com o
[00:38:19] cooperador. Que seria ser sensível
[00:38:21] ao benefício social. Crianças
[00:38:23] com meses. Não precisa de linguagem. Tá?
[00:38:25] Uhum. Uhum. Precisa de um forte componente inato
[00:38:27] pra isso. Só que, assim, eu ter
[00:38:29] a tendência a cooperar com quem coopera
[00:38:31] é uma coisa. Outra
[00:38:33] coisa é eu aprender
[00:38:35] quando ter essa disposição de ajudar
[00:38:37] e quando não ajudar. Isso é diferente.
[00:38:39] Sim. Sim. Então, o que
[00:38:41] que a gente nasce?
[00:38:43] A gente nasce com a disposição para,
[00:38:45] ah, perceber ambientes
[00:38:47] cooperadores e não cooperadores. E os
[00:38:49] indivíduos cooperadores e não cooperadores.
[00:38:51] Beleza. Tá? Uhum. Aí tem um
[00:38:53] experimento de 2014
[00:38:54] com crianças de um a dois anos.
[00:38:57] Aí era um pouquinho maior, né? Já andava, tá? Um pouquinho.
[00:39:00] Né? Pré-escolares. 2014
[00:39:01] que é um experimento de interação recíproca.
[00:39:04] Que era assim. Eram dois grupos de crianças.
[00:39:06] O primeiro jogo, você dava
[00:39:07] lá um joguinho pra criança jogar sozinha.
[00:39:09] Uma bola. Ela ficava brincando sozinha.
[00:39:12] O segundo grupo, a criança
[00:39:13] jogava a bola com o experimentador.
[00:39:15] Um adulto jogava a bola com a
[00:39:17] criança um pouquinho. E no outro, a criança jogava
[00:39:19] a bola sozinha. Beleza. Aí,
[00:39:21] numa segunda situação, esse mesmo
[00:39:23] experimentador, tava
[00:39:25] querendo, por exemplo, numa mesa, esticar
[00:39:27] o braço pra pegar alguma coisa, só que ele não
[00:39:29] alcançava. O braço dele não chegava.
[00:39:31] Mas a coisa tava perto da criancinha.
[00:39:34] E aí eles queriam, eles davam 30 segundos
[00:39:35] pra ver se a criança pegava o que
[00:39:37] tava perto dela e dava pra você ou não.
[00:39:39] Ou seja, ela cooperava. Tá bom?
[00:39:41] Uhum. As crianças que
[00:39:43] brincavam sozinhas, a maior
[00:39:45] parte delas não ajudou. Tipo,
[00:39:47] o cara tava lá tentando pegar o negócio, a criança
[00:39:49] não colaborou, tá? A criança que brincou
[00:39:51] sozinha. A criança que brincou com
[00:39:53] o experimentador, quando o experimentador
[00:39:55] tava em dificuldade, a criança ajudou.
[00:39:57] A maior parte delas. Entende?
[00:39:59] Tá. Então, eu
[00:40:01] nasço com a capacidade de perceber
[00:40:03] a cooperação, mas eu aprendo
[00:40:05] a usar isso em certos contextos ou não.
[00:40:08] Em função de quem me ajuda.
[00:40:10] Lembra da regra do dilema do prisioneiro?
[00:40:11] Uhum. Se eu tenho a iteração,
[00:40:14] eu coopero. Se eu
[00:40:15] vejo você a primeira vez, eu não coopero.
[00:40:18] Olha que bonito.
[00:40:19] Uhum. Não é interessante?
[00:40:21] Você já viu o marcador. Então, é onde
[00:40:23] o George Price junta lá com o Von Neumann.
[00:40:25] Fantástico. Uhum.
[00:40:27] Essa coisa da proximidade
[00:40:29] de quem você tá ajudando,
[00:40:31] ela teria alguma
[00:40:33] correlação direta
[00:40:35] também com a proximidade
[00:40:37] da pessoa
[00:40:39] pra quem eu dou importância?
[00:40:41] Sim. Muito bem. Tem. Tem.
[00:40:43] Então, isso tem a ver não só com a
[00:40:45] com a seleção de parentesco,
[00:40:47] mas seleções de outras ordens.
[00:40:49] Seleções sociais, né?
[00:40:51] É muito interessante, porque
[00:40:53] assim, aí entra a parte final
[00:40:55] do episódio agora. Tudo bem. Então,
[00:40:57] a nossa disposição pra perceber desigualdade
[00:40:59] e ficar mais perto de quem coopera.
[00:41:02] Legal. Então, assim,
[00:41:03] eu tendo a ajudar. Então,
[00:41:05] pra começar a fechar o episódio.
[00:41:07] A criança tem uma disposição a ajudar os outros?
[00:41:09] Tem. Uhum. Ela tem uma disposição
[00:41:11] a perceber, assim, e ajudar.
[00:41:13] Ela tem uma disposição a colaborar,
[00:41:16] no entanto, muito cedo
[00:41:17] ela percebe indivíduos que cooperam,
[00:41:19] indivíduos que não cooperam, antes da linguagem,
[00:41:21] e ela tende a cooperar mais
[00:41:23] com os cooperadores. Uhum.
[00:41:25] E ela tende a cooperar com indivíduos que
[00:41:27] cooperaram antes com ela, ou que elas têm
[00:41:29] contato, tá? Uhum. E aí
[00:41:31] aparece, que é a fonte de conflito,
[00:41:33] um outro inatismo que a gente tem.
[00:41:35] Que aí tem um livro
[00:41:36] recente, razoavelmente recente,
[00:41:39] fantástico, do Sapolsky,
[00:41:41] que chama Behave.
[00:41:42] Quem não leu esse livro, leia. É muito bom.
[00:41:45] Tá? Do Richard Sapolsky.
[00:41:46] Esse livro Behave, acho que é o último dele.
[00:41:48] Ele tem um outro livro anterior que eu gostei muito, que chama
[00:41:50] Por que as zebras não têm úlcera?
[00:41:52] Que ele descreve muito sobre a questão da ansiedade e tal.
[00:41:54] É um livro mais antigo. E ele é bem fisiólogo, né?
[00:41:57] Ele trata muito com hormônios, fisiologia.
[00:41:59] E ele estuda muito,
[00:42:00] nesse livro ele comenta um pouco,
[00:42:02] o papel da ocitocina, né?
[00:42:04] A ocitocina é um hormônio,
[00:42:07] né? É um neuromodulador,
[00:42:09] na verdade, né? Ele é produzido no
[00:42:11] cérebro, no núcleo paraventricular.
[00:42:14] A ocitocina,
[00:42:15] hoje não tanto, mas uns 2, 3 anos atrás,
[00:42:17] eu não sei se você lembra,
[00:42:19] talvez na sua bolha não pegou muito, mas pegou,
[00:42:21] sabe mãe grávida?
[00:42:23] Bolha de mãe grávida,
[00:42:25] pensam onde mora a pseudociência também.
[00:42:27] Bolha de grupo de mãe grávida.
[00:42:29] Meu Deus!
[00:42:31] Nesses Instagram, nesse chorume de Instagram
[00:42:33] de gente querendo
[00:42:34] botar bedelho no sucesso
[00:42:37] reprodutivo dos outros, uns anos atrás
[00:42:39] surgiu a onda da ocitocina.
[00:42:41] Que a ocitocina, tem TED
[00:42:43] sobre isso, falando dessa merda.
[00:42:45] TED, falando do papel
[00:42:47] da ocitocina, da importância
[00:42:49] da ocitocina para o vínculo,
[00:42:51] que é o hormônio do amor,
[00:42:53] que é a asneira completa,
[00:42:55] né? Porque o que acontece?
[00:42:57] A ocitocina, ela é muito importante
[00:42:59] para o comportamento de lactação
[00:43:02] da mãe, né?
[00:43:03] Da fêmea, e também para a contração
[00:43:05] uterina, quando vai ter
[00:43:07] o parto. Então a ocitocina
[00:43:09] é importante nisso,
[00:43:11] e aí muita gente associa isso com o cuidado,
[00:43:13] né? Com o cuidado com a
[00:43:15] trole, o afeto. No nosso
[00:43:16] naruhodo sobre instinto materno, a gente fala
[00:43:18] que não é bem assim. Então surgiu esse
[00:43:20] meme idiota de que
[00:43:22] a ocitocina é do amor, é do afeto,
[00:43:25] é para manter as pessoas juntas.
[00:43:27] Aí muita gente começa a falar
[00:43:28] que é o hormônio do altruísmo,
[00:43:30] de você fazer bem para os outros.
[00:43:32] E é uma bobagem, é uma bobagem.
[00:43:35] Por quê? Vamos deixar
[00:43:37] uma revisão fantástica,
[00:43:39] o Sapolsky pesquisa muito isso,
[00:43:41] mas tem outros pesquisadores, em que
[00:43:43] assim, por exemplo, imagina que a gente
[00:43:44] faz parte do mesmo grupo, quem? A gente se
[00:43:46] conhece, tá? Ocitocina,
[00:43:49] você pode transformar num
[00:43:50] spray e dar uma
[00:43:52] espreiada no seu nariz. Você já tem o
[00:43:54] efeito da ocitocina, tá bom? Com um spray
[00:43:56] nasal, né? Então, por exemplo,
[00:43:58] se eu tô num jogo com você
[00:44:00] e eu dou um spray de ocitocina
[00:44:02] no meu nariz, tem uns artigos que
[00:44:04] mostram assim, você tá jogando com
[00:44:06] alguém, e aí você tem que dar ou não dinheiro,
[00:44:09] e quando você coloca ocitocina
[00:44:10] na pessoa, ela começa a dar
[00:44:12] mais dinheiro. Ela fica, ela
[00:44:14] coopera mais. Um pouquinho a mais, em média.
[00:44:17] É como se o ambiente conspirasse pra você
[00:44:18] cooperar mais. Só que o que que acontece?
[00:44:21] Ó, eu tô jogando com você e a gente faz
[00:44:22] do mesmo, a gente é parte do mesmo grupo, né?
[00:44:25] Beleza, a gente coopera, né?
[00:44:27] Aí, eu pego
[00:44:28] você e coloco pra você
[00:44:30] fazer o mesmo jogo com uma
[00:44:32] pessoa que não é do seu grupo. Imagina
[00:44:34] o tipo de pessoa que você mais despreza
[00:44:36] na sua vida. O perfil. Eu coloco
[00:44:39] você frente a frente com essa pessoa,
[00:44:41] tá? Pra jogar, com uma pessoa que não é
[00:44:42] do seu time, você não gosta, e
[00:44:44] coloca ocitocina em você. O que que o idiota
[00:44:47] pensaria? Ah, não, ele vai ficar legal com
[00:44:49] a pessoa. Mentira, piora.
[00:44:51] A ocitocina não é o hormônio
[00:44:52] do amor e da ligação. A ocitocina
[00:44:55] é o hormônio que faz você
[00:44:56] perceber e reforçar
[00:44:58] aliança. Quem faz parte do
[00:45:00] seu grupo e quem faz parte do outro.
[00:45:02] É a divisão entre nós e eles
[00:45:05] que é reforçado pela ocitocina.
[00:45:07] É o efeito de coalizão.
[00:45:09] E isso é inato. Por que
[00:45:10] que os humanos não são
[00:45:12] naturalmente bons? Porque a gente…
[00:45:14] a gente tem uma outra coisa inata
[00:45:17] na gente, que é a nossa
[00:45:18] vontade de separar entre nós e eles.
[00:45:21] Isso é o conflito. Volta
[00:45:22] no começo do episódio. Por isso que você fala
[00:45:24] ah, o ser humano é bom. Não, peraí.
[00:45:27] Tem um conflito, não é? Que conflito
[00:45:28] é esse? A nossa disposição inata
[00:45:31] para cooperar tem um conflito
[00:45:33] com a nossa disposição inata
[00:45:34] para separar as pessoas em nós e eles.
[00:45:37] Porque se você separa entre nós
[00:45:38] e eles, eles são maus. E nós
[00:45:40] somos bons. Mesmo eu sendo bom.
[00:45:42] Então eu só vou ser bom com quem é do meu time.
[00:45:45] E vou ser mal com outro. Vou ser
[00:45:46] naturalmente mal com ele. Então
[00:45:48] para fechar o episódio, nós somos
[00:45:50] naturalmente bons e maus.
[00:45:52] Depende do alvo. Aí que entra
[00:45:54] a coisa sublime da discussão.
[00:45:56] Que é o seguinte. Tudo bem, se a gente tem uma
[00:45:58] tendência natural a separar nós e eles
[00:46:00] e tem uma tendência natural a pelo menos cooperar
[00:46:03] não precisa ser legal, mas pelo menos cooperar
[00:46:04] onde que tá o negócio? Como que a gente define
[00:46:06] nós e eles, não é verdade? Se você define
[00:46:08] nós e eles pela cor de pele
[00:46:10] ferrou, né? Já surge uma série de
[00:46:12] problemas sociais. E a gente troca
[00:46:14] a definição de nós e eles muito fácil.
[00:46:17] Então tem experimentos que mostram
[00:46:19] assim. Você coloca brancos e negros
[00:46:21] falando coisas.
[00:46:22] Você começa a identificar a estratégia de
[00:46:24] coalizão. Você, indivíduo.
[00:46:26] Se eu pego os mesmos brancos e negros
[00:46:29] e coloco um boné do seu time de futebol
[00:46:31] você vai deixar de fazer
[00:46:32] a coalizão por cor e vai fazer por time
[00:46:34] de futebol. Ou seja,
[00:46:36] você discriminar pessoas por cor
[00:46:39] por raça, por idade, por qualquer
[00:46:40] que seja, isso não é inato. O que é
[00:46:43] inato é você criar nós,
[00:46:44] nós e eles. Isso é inato. Criar
[00:46:46] o grupo. O critério do grupo se
[00:46:48] altera o tempo todo. Veja que
[00:46:50] beleza, Ken. E aí a gente conclui
[00:46:52] por que é importante a gente separar nós e
[00:46:54] eles? É uma coisa quase poética,
[00:46:56] né? Porque, por exemplo, Ken,
[00:46:58] pensa no que você é. Se eu pedir pra
[00:47:00] você definir o que você é, você vai
[00:47:02] ter muita dificuldade. Verdade.
[00:47:04] Porque o seu eu muda o tempo
[00:47:06] todo. Mas se eu perguntar o que você não
[00:47:08] é, você tem mais facilidade de
[00:47:10] dizer o que você não é. Vem
[00:47:12] muito mais fácil. Muito mais fácil.
[00:47:14] Então, nesse sentido,
[00:47:16] a gente se define, a definição
[00:47:18] da identidade passa pela ausência.
[00:47:21] Por exemplo, eu nasci em São Paulo.
[00:47:22] Eu não sei o que é ser paulista. Eu sei o que
[00:47:24] é não ser. Que é todo o resto.
[00:47:27] Eu não sou da Bahia,
[00:47:28] eu não sou de Minas, eu não sou do Pará,
[00:47:30] eu sou… Dado que eu não sei o que eu não
[00:47:32] sou, eu sei o que eu sou. A partir
[00:47:34] da negativa. Eu nunca vou saber o que eu sou
[00:47:36] de verdade. Então, eu só
[00:47:38] vou me descobrir enquanto identidade
[00:47:40] quando eu descobrir o não eu. O não
[00:47:42] eu é o outro. E no limite que
[00:47:44] o outro me dá, eu me defino como
[00:47:46] sendo eu. Esse é o inatismo da coisa.
[00:47:49] Entendeu? É porque eu só
[00:47:50] me identifico, eu só crio um senso
[00:47:52] de identidade a partir de uma ausência.
[00:47:55] Que é a negação de mim
[00:47:56] mesmo, que é o outro. E isso é inato.
[00:47:59] Olha… E por isso que eu não
[00:48:00] consigo ser legal com todo mundo. Que
[00:48:02] bosta! É… Pois é.
[00:48:05] Pois é. Então, assim,
[00:48:06] por mais que a gente se
[00:48:08] diga preocupado com a humanidade,
[00:48:11] a verdade é que a gente
[00:48:12] se preocupa com aquilo que está mais próximo.
[00:48:14] Isso. Com o que a gente define
[00:48:16] como sendo nós.
[00:48:18] E o que não é nós é o outro.
[00:48:20] E esse outro eu tendo a desprezar.
[00:48:22] E se você começar a usar a ocitocina
[00:48:24] porque é o hormônio do amor, você vai achar aquele
[00:48:26] outro pior ainda. Você vai querer
[00:48:28] ser o genocida daquele outro.
[00:48:30] Meu ovo que a ocitocina é
[00:48:32] hormônio de amor, coisa nenhuma. É o hormônio da coalizão.
[00:48:35] Força você a
[00:48:36] separar quem é você e quem é o outro.
[00:48:38] Porque isso acontece o quê? Na relação mãe-bebê.
[00:48:40] O que é o filho de uma mãe?
[00:48:42] É o que tem mais perto dela.
[00:48:44] Do time dela. É o filho dela.
[00:48:46] Todo o resto é outro.
[00:48:48] Um filho recém-nascido para uma
[00:48:50] mãe é a morte de todo e qualquer
[00:48:52] outro ser vivente.
[00:48:54] Durante o período de tempo de vida daquela criança.
[00:48:56] É verdade. Então não é amor
[00:48:58] coisa nenhuma. É separação.
[00:49:00] É negação. É um movimento de negação.
[00:49:03] Enquanto você estava falando
[00:49:04] sobre isso, me veio até
[00:49:06] à mente, Altair, a letra
[00:49:08] de uma música, de um artista
[00:49:10] do qual eu sou fã, confesso.
[00:49:12] Ele é o Zé Cabaleiro.
[00:49:14] E ele tem uma música
[00:49:17] chamada Minha Tribo
[00:49:18] Sou Eu.
[00:49:20] Me lembrou bastante quando você estava falando. A letra dele
[00:49:22] diz o seguinte.
[00:49:24] Eu não sou cristão. Eu não sou ateu.
[00:49:27] Não sou japa.
[00:49:28] Não sou ticano. Não sou europeu.
[00:49:31] Eu não sou negão.
[00:49:32] Eu não sou judeu.
[00:49:34] Não sou do samba. Nem sou do rock.
[00:49:36] Minha tribo sou eu.
[00:49:38] Eu não sou playboy. Eu não sou plebeu.
[00:49:41] Não sou hippie, hype,
[00:49:42] skinhead, nazi, fariseu.
[00:49:44] A terra se move.
[00:49:46] Falou o Galileu.
[00:49:48] Não sou maluco. Nem sou careta.
[00:49:50] Minha tribo sou eu.
[00:49:52] Pobre de quem não é cacique.
[00:49:54] Nem nunca vai ser pajé.
[00:49:58] Temos agora a comprovação de dois episódios
[00:50:01] que dá evidências
[00:50:02] para mostrar que isso faz muito sentido.
[00:50:05] A chance dessa música
[00:50:05] do Zé Cabaleiro estar errada
[00:50:08] é bem baixa.
[00:50:09] É.
[00:50:10] Você vê? É uma representação artística.
[00:50:13] Perceba que essa questão,
[00:50:14] é uma questão que leva a um conflito.
[00:50:16] Se a gente nasce bom ou ruim.
[00:50:18] É um conflito em si. E é um conflito da nossa ausência.
[00:50:21] Porque você nunca vai saber o que você é.
[00:50:23] Você só vai saber o que você não é.
[00:50:25] E aí, se você tem uma vida
[00:50:27] muito pequena, muito restrita,
[00:50:29] tudo é o outro.
[00:50:31] Logo, tudo é ameaçador.
[00:50:32] E aí você vai querer defender o pouco que você tem.
[00:50:35] E aí o que você tem que fazer pra
[00:50:36] diminuir um pouco essa…
[00:50:38] Utilizar mais essa sua predisposição natural
[00:50:41] à cooperação em mais contextos.
[00:50:42] Tornar o seu mundo do eu
[00:50:44] o seu time, mais inclusivo.
[00:50:46] E perceber que o mundo é muito, muito, muito, muito grande.
[00:50:49] Você sempre vai ser preconceituoso
[00:50:50] num certo nível, porque chega uma hora que a sua fronteira acaba.
[00:50:53] E aí você tem que se preparar pra pedir desculpas
[00:50:55] em várias situações, em lidar.
[00:50:57] E percebendo essas contradições, você vai ser uma pessoa
[00:50:59] mais realizada. Não sei se mais feliz.
[00:51:01] Mas mais realizada em perceber que o mundo
[00:51:03] é muito excitante. E perceba que esses dois episódios
[00:51:05] é a junção de todas as áreas do conhecimento,
[00:51:07] basicamente. Então eu espero
[00:51:09] que você se sinta realizado, como eu me senti
[00:51:11] ouvindo a mim mesmo durante esses dois episódios.
[00:51:13] Juntamente com o Ken Fujioka.
[00:51:15] Eu adorei esse episódio duplo. Eu tenho certeza
[00:51:17] que muita gente vai adorar também.
[00:51:20] E fica
[00:51:21] aqui a certeza, no final do episódio
[00:51:23] duplo, de que
[00:51:25] a jornada
[00:51:27] nesse episódio
[00:51:28] era tão importante quanto o destino
[00:51:31] que sá mais.
[00:51:34] Muito bem, muito bem.
[00:51:35] Sá mais importante que o destino.
[00:51:37] E fica como recomendação, agora depois do episódio,
[00:51:39] todo mundo ouvir essa música do Zé Cabaleiro.
[00:51:41] Qual que é o nome mesmo, Ken?
[00:51:43] Eu sou eu. Isso aí.
[00:51:45] É isso daí.
[00:51:47] E Naruhodô Ilustríssimo 20.
[00:51:51] E você já sabe,
[00:51:53] aqui no Naruhodô, quem faz a pauta
[00:51:55] é você. Você tem alguma pergunta
[00:51:57] pra gente ou quer comentar algum episódio?
[00:51:59] Escreva pra nós.
[00:52:01] podcast.naruhodô.com.br
[00:52:03] Repetindo.
[00:52:04] podcast.naruhodô.com.br
[00:52:07] E lembre-se, mande nome
[00:52:09] completo, idade, profissão
[00:52:11] e a cidade de onde você está falando.
[00:52:13] É isso aí.
[00:52:18] Naruhodô.
[00:52:23] Este podcast é apresentado
[00:52:25] por