🎧 🤖 IA muito além do hype — com Ana Freitas


Resumo

Neste episódio do Boa Noite Internet, Cris Dias recebe Ana Freitas, jornalista e especialista em estratégia de conteúdo baseada em dados, para uma conversa aprofundada sobre inteligência artificial além do hype. Eles começam desconstruindo a obsessão por encontrar “a melhor ferramenta” de IA, argumentando que a pergunta parte de uma premissa equivocada, já que o trabalho com IA normalmente requer um conjunto de ferramentas e o verdadeiro valor está no roteiro, na edição e no conhecimento humano por trás das criações.

A discussão avança para o impacto da IA no mercado de trabalho, com Ana defendendo que a tecnologia não eliminará a necessidade de especialistas, mas reduzirá sua quantidade. O ponto crucial será a capacidade de usar a IA, o que exigirá uma adaptação massiva das profissões. Ela também explora a ideia de que a IA “joga para a média”, elevando a performance de quem é ruim em uma tarefa, mas podendo reduzir a de especialistas que não souberem utilizá-la bem.

Ana compartilha sua trajetória pessoal, desde a infância nerda com computadores até sua carreira no jornalismo e publicidade, sempre na intersecção com a tecnologia. Ela relata seu momento de epifania com o lançamento do GPT-3.5 em 2022, que a fez perceber que a IA precisava se tornar central em seu trabalho. A conversa também aborda visões de futuro, desde cenários distópicos até a possibilidade de sermos uma simulação, como sugerido por jogos como Spore e pela teoria da simulação.

Os participantes debatem o otimismo e o pessimismo em relação à IA, com Ana se definindo como uma “pessimista no sentido de alerta”. Eles criticam a narrativa de que a IA resolverá magicamente todos os problemas, destacando como as prioridades atuais das big techs estão longe de focar em questões como o aquecimento global. A conversa também aborda a “terceirização do pensamento humano para algoritmos” e a necessidade de manter a capacidade crítica.

Por fim, Ana e Cris anunciam o lançamento da comunidade “IA em curso”, um projeto que nasceu da percepção de que cursos tradicionais sobre IA ficam desatualizados rapidamente. A proposta é uma comunidade de aprendizado contínuo, com mentorias quinzenais, grupo no Telegram, tutoriais e um curso introdutório. Eles enfatizam a importância de não apenas aprender a usar ferramentas, mas de pensar criticamente sobre a tecnologia, seus impactos e dilemas éticos, preparando as pessoas para um futuro onde todos serão, em algum nível, gestores de IA.


Indicações

Ferramentas

  • ChatGPT — Mencionado várias vezes como uma das principais ferramentas de IA, com discussões sobre suas limitações e como compará-lo com outras opções como Claude e DeepSeek.
  • Claude — Ferramenta de IA mencionada como alternativa ao ChatGPT, especialmente para geração de texto, com Ana mencionando que já foi grande defensora do Claude para texto.
  • DeepSeek — Ferramenta de IA mencionada como exemplo no contexto da metodologia dos 5 F’s, onde Ana usou a ferramenta para criar um post que bombou no Instagram.

Jogos

  • Spore — Jogo do criador de The Sims usado como metáfora para entender conceitos como singularidade e simulação. O jogo começa com um organismo unicelular e evolui para civilizações e exploração espacial, ilustrando como a tecnologia pode simular realidades complexas.
  • The Sims — Mencionado no contexto da teoria da simulação, onde dentro do jogo The Sims, os bonequinhos poderiam jogar outro The Sims, criando uma cadeia infinita de simulações dentro de simulações.

Livros

  • Acelerando — Livro de Charles Stross mencionado que contém uma história similar à do episódio de Black Mirror, onde um personagem simula relacionamentos para testar compatibilidade antes do encontro real.
  • Tecnofeudalismo — Livro de Yanis Varoufakis que critica como o capitalismo encontrou formas de lucrar até com o pessimismo, transformando crises em oportunidades de negócio.

Pessoas

  • Paulo Aguiar (paulo.ia) — Mencionado como um criador muito bom de vídeo que faz conteúdos incríveis com IA. Ele defende que ‘IA não faz vídeo, a IA faz cenas’, que depois precisam ser coladas com software de edição tradicional.
  • Ted Chiang — Autor de ficção científica mencionado na discussão sobre visões distópicas da tecnologia. Ana menciona conversar com ele e sua perspectiva de que as pessoas não têm medo da tecnologia, mas do capitalismo com a tecnologia.
  • Yanis Varoufakis — Ex-ministro da economia da Grécia, autor do livro ‘Tecnofeudalismo’, mencionado na discussão sobre como o capitalismo encontrou formas de lucrar até com o pessimismo.
  • Yuval Noah Harari — Historiador mencionado por sua definição de capitalismo como ‘o sistema econômico que acredita que amanhã vai ser melhor do que hoje’ e que empresta dinheiro com base nessa crença.

Projetos

  • IA em curso — Comunidade de aprendizado contínuo sobre inteligência artificial criada por Ana Freitas e Cris Dias. Oferece mentorias quinzenais, grupo no Telegram, tutoriais, curso introdutório e metodologias como os 5 F’s, com foco em conhecimento ‘à prova de futuro’.
  • Anacronia — Perfil do Instagram de Ana Freitas focado em IA, onde ela compartilha conteúdo sobre o tema e que serve como plataforma para a comunidade ‘IA em curso’.

SéRies

  • Black Mirror — Série de ficção científica mencionada, especificamente um episódio sobre Tinder onde um casal descobre que tudo que estão vivendo é apenas uma simulação para testar se seriam um match na vida real.

Linha do Tempo

  • 00:03:04O equívoco da busca pela melhor ferramenta de IA — Ana Freitas critica a obsessão por encontrar “a melhor ferramenta” ou “o melhor LLM”, argumentando que essa pergunta parte de uma premissa equivocada. Ela explica que o trabalho com IA normalmente requer múltiplas ferramentas e que o valor real está no roteiro, na edição e no conhecimento humano, não apenas na tecnologia. A analogia usada é: perguntar qual a melhor ferramenta é como perguntar se é melhor um carro ou uma bicicleta – depende completamente do contexto e do objetivo.
  • 00:10:11IA não faz vídeo, faz cenas: o papel humano na criação — Ana e Cris discutem a criação de vídeos com IA, destacando que a tecnologia gera cenas, mas não vídeos completos. O verdadeiro trunfo dos melhores vídeos com IA está no roteiro, na edição e no ritmo, que continuam dependendo de profissionais humanos. Eles enfatizam que ter todas as ferramentas na mão não garante um resultado de qualidade; é necessário um workflow bem estruturado, conhecimento técnico e muito processo iterativo para chegar a um produto válido.
  • 00:10:47A IA joga todo mundo para a média — Ana apresenta uma definição crucial: a IA tem o poder de “jogar para a média”. Em tarefas onde uma pessoa é ruim, a IA pode elevá-la ao nível médio. No entanto, se um especialista não souber usar a IA adequadamente, sua performance pode ser rebaixada para a média. O ponto central é que a tecnologia não resolve tudo magicamente; seu impacto depende diretamente da habilidade do usuário em integrá-la ao seu fluxo de trabalho.
  • 00:11:36Trajetória pessoal: de Microcamp à especialista em IA — Ana conta sua história com a tecnologia, desde os 10 anos quando ganhou um curso de HTML e Dreamweaver na Microcamp como presente de aniversário. Ela descreve como sempre foi a “menina do TI que sabia escrever”, posicionando-se na interseção entre tecnologia e comunicação. Sua carreira no jornalismo e depois na publicidade foi marcada por essa dualidade, até o momento de epifania com o lançamento do GPT-3.5 em 2022, quando percebeu que a IA precisava ser central em seu trabalho.
  • 00:22:01Pessimismo como alerta: IA entre utopia e distopia — Cris pergunta se Ana é otimista ou pessimista em relação ao poder transformador da IA. Ela se define como “fundamentalmente uma pessimista, mas da perspectiva de que, se nada for feito, vai dar bosta”. Ana argumenta que esse senso de alerta é importante, mas reconhece que coisas estão sendo feitas. Ela critica a visão utópica de que a IA resolverá todos os problemas, apontando que as prioridades atuais das big techs estão longe de focar em questões como o aquecimento global.
  • 00:34:01A falta de utopias tecnológicas na cultura pop — Ana desenvolve uma reflexão profunda sobre como a cultura pop está repleta de distopias tecnológicas, mas carece de utopias atravessadas por tecnologia. Ela argumenta que os bilionários do Vale do Silício têm um projeto de mundo “horrível” e completamente atravessado por tecnologia, o que justifica o ceticismo geral. No entanto, ela defende a necessidade de sonhar com futuros coletivos bons que também incorporem a tecnologia, visualizando essas possibilidades para então lutar por elas.
  • 00:36:25IA não vai tirar seu emprego, mas vai reduzir o número de especialistas — Ana revisita e atualiza uma frase famosa: “A IA não vai tirar seu emprego; quem vai tirar seu emprego é uma pessoa que sabe usar a IA”. Ela agora acredita que serão os dois: a IA E as pessoas que sabem usá-la. O grande impacto será a redução da necessidade de especialistas. Em vez de precisar de 10 especialistas, uma empresa precisará de apenas 2, mas esses dois terão que saber usar IA. Os outros 8 terão que aprender a fazer outra coisa.
  • 00:48:25O tipo de empresa que vai se dar bem na era da IA — Cris pergunta qual o “DNA” das empresas que melhor se adaptarão à IA. Ana critica a pressão dos acionistas por implementar IA sem entendimento, contribuindo para uma possível bolha. Ela alerta que muitas ferramentas vendem resultados sem explicar processos, e que tomadores de decisão muitas vezes não têm o conhecimento necessário para avaliar as consequências. O grande risco é que a tecnologia avança rápido demais, enquanto as pessoas não se formam adequadamente para lidar com ela.
  • 00:56:07Anúncio da comunidade “IA em curso”: conhecimento à prova de futuro — Ana e Cris anunciam o lançamento da comunidade “IA em curso”, nascida da frustração com cursos tradicionais que ficam desatualizados rapidamente. A proposta é uma comunidade de aprendizado contínuo, com mentorias quinzenais, grupo no Telegram com curadoria de links, tutoriais e um curso introdutório. Eles enfatizam que o foco não é apenas ensinar ferramentas, mas desenvolver a capacidade de pensar criticamente sobre IA, tomar decisões informadas e se adaptar constantemente a um cenário em rápida transformação.
  • 01:08:52Metodologia dos 5 F’s para escrever com IA — Ana apresenta sua metodologia “5 F’s” para criação de textos com IA, desenvolvida ao longo de mais de dois anos ensinando sobre o tema. Os 5 F’s são: Formato, Fluxo narrativo, Fala, Fatos e Fonte. Ela usa como exemplo um post sobre o DeepSeek que bombou no Instagram, mostrando como aplicou cada elemento. A ideia central é dividir o trabalho em etapas, usando a IA em cada uma delas, validando os resultados e colocando a “mão humana” antes de seguir adiante, garantindo autenticidade e evitando plágio.

Dados do Episódio

  • Podcast: Boa Noite Internet
  • Autor: Ampère
  • Categoria: Society & Culture Philosophy Health & Fitness Mental Health
  • Publicado: 2025-11-23T23:00:00Z
  • Duração: 01:13:51

Referências


Dados do Podcast


Transcrição

[00:00:00] A pergunta de qual é a melhor ferramenta e qual é a melhor

[00:00:01] LM é uma pergunta que parte

[00:00:03] de uma premissa já equivocada.

[00:00:06] Acho que o grande trunfo dos melhores

[00:00:08] vídeos com AI incríveis que você viu

[00:00:10] por aí, se você trabalhar com

[00:00:11] o pessoal que trabalha com publicidade e tal, essa coisa

[00:00:13] dos vídeos de AI e tal, o maior trunfo

[00:00:16] desses vídeos não é AI, é o roteiro deles.

[00:00:17] Mas a questão é que o que a AI

[00:00:20] vai fazer é diminuir a necessidade de

[00:00:21] especialistas. Não que você

[00:00:24] não precise de pessoas com conhecimento

[00:00:25] instrumental nas áreas, só que você não

[00:00:27] precisa de mais de 10. Você vai precisar de duas.

[00:00:30] Essas duas vão ter que saber usar IA.

[00:00:32] Então vão sobrar ali duas

[00:00:33] que sabem usar IA. Mas outras

[00:00:36] oito vão ter que aprender a fazer outra coisa.

[00:00:38] Mas eu defendo que pra você escrever

[00:00:39] direito com AI, você precisa… Na verdade, pra conta

[00:00:42] que é tarefa, tá? Mas esse é outro spoiler.

[00:00:44] Você precisa

[00:00:45] dividir em etapas o seu

[00:00:47] trabalho e pra cada etapa usar

[00:00:49] AI, chegar no resultado, validar aquele resultado,

[00:00:51] colocar a sua mão ali e aí passar pra próxima, né?

[00:00:54] Por isso que as pessoas me chamam pra falar de AI.

[00:00:56] Deixando a modéstia

[00:00:57] embaixo da mesa agora. Tipo, é porque

[00:01:00] tem muitas coisas que… Mas elas não são

[00:01:02] tão… Elas são meio óbvias, mas é que as pessoas não…

[00:01:04] A gente não tem gente falando

[00:01:06] delas.

[00:01:14] Boa noite, internet. Boa noite, Brasil.

[00:01:16] Eu sou o Cris Dias e

[00:01:17] se você tem acompanhado o Boa Noite Internet

[00:01:20] aqui nessas entrevistas, nesse segundo semestre,

[00:01:22] eu até comentei isso no programa

[00:01:24] anterior, não importa

[00:01:26] o assunto, eu posso estar falando de luto

[00:01:27] corporativo, eu posso estar falando de

[00:01:30] o que é ser CEO de uma página

[00:01:32] de memes, em algum momento da entrevista

[00:01:34] eu falo assim, tá, mas e aí chegou

[00:01:36] a inteligência artificial e bagunçou tudo, o que é que

[00:01:38] isso muda no seu trabalho, na sua vida, na nossa vida?

[00:01:41] Então, se é assim,

[00:01:42] eu convidei aqui a maior

[00:01:44] especialista de inteligência artificial

[00:01:46] do Brasil e do mundo, que

[00:01:48] vem a ser minha amiga pessoal, Ana Freitas. Boa noite,

[00:01:50] Ana Freitas, bem-vinda ao Boa Noite Internet. Muito obrigada,

[00:01:52] eu tô realizando um sonho hoje, a gente tá aqui. Você sabe

[00:01:54] disso. Eu não faço a menor ideia. É um sonho,

[00:01:56] pô. Muito bem.

[00:01:57] Ana Freitas, se você não conhece, é claro que você conhece,

[00:02:00] é jornalista e especialista em

[00:02:02] estratégia de conteúdo baseada em dados,

[00:02:04] cofundadora da Quid,

[00:02:06] além, e mais importante, de presença

[00:02:08] constante no Braincast,

[00:02:10] onde ela debate os desafios

[00:02:12] e oportunidades da inteligência artificial

[00:02:14] na comunicação

[00:02:16] e no mundo, e não fui eu que disse isso,

[00:02:18] foi quem? A inteligência artificial que escreveu

[00:02:20] isso aqui dela, a Ana, minha

[00:02:21] companheira de bancada de Braincast,

[00:02:24] onde a gente se conheceu,

[00:02:26] onde recebi

[00:02:27] da Ana uma volta de gravação

[00:02:30] de Braincast nos elogios,

[00:02:32] uma das coisas que eu mais gostei de ouvir, que é

[00:02:34] não, Cris, tudo bem, quando a gente conversa, a gente se

[00:02:36] entende, a gente, nossas cabeças

[00:02:38] funcionam. Tamo fazendo

[00:02:40] coisas juntas, já meti, tava até procurando

[00:02:42] hoje lá alguma outra coisa nas minhas fotos,

[00:02:44] vi a foto que a gente gravou no estúdio lá, já fizemos

[00:02:46] uns bem aí. É boa.

[00:02:48] Vamos falar disso hoje, mas vamos chegar lá.

[00:02:50] Viemos falar de inteligência artificial aqui

[00:02:52] e eu quero já começar te perguntando

[00:02:54] o seguinte, você faz

[00:02:56] seus projetos, cria conteúdo,

[00:02:57] multi-perfil no

[00:02:59] Instagram, tá sempre falando, tá dando palestra,

[00:03:01] tá falando de IA por aí, qual é a

[00:03:03] coisa mais errada

[00:03:04] que você escuta, o conceito, o equívoco

[00:03:07] que a galera não entendeu,

[00:03:09] tá pensando errado, pra gente já começar

[00:03:11] esse programa resolvendo,

[00:03:13] corrigindo isso. Já, com um monte de gente me cancelando,

[00:03:15] acho que eu tô criticando elas. Cara, eu acho que

[00:03:17] tem uma noção geral, tem muitas coisas,

[00:03:21] né, tem várias

[00:03:21] coisas que eu acho que são uma viagem,

[00:03:23] com relação a como as pessoas

[00:03:25] lidam com IA assim,

[00:03:27] mas tem uma coisa que é particularmente

[00:03:29] irritante pra mim, e que não vai mudar.

[00:03:31] Eu não tô pedindo, não precisa mudar.

[00:03:33] É bem pessoal, assim, eu que tenho que

[00:03:35] resolver terapia.

[00:03:37] Mas, que é o lance do…

[00:03:40] Qual que é a ferramenta que faz,

[00:03:41] resolve tal problema? Tipo, essa coisa

[00:03:43] de achar que a solução, que

[00:03:45] esse tema se resume em

[00:03:47] existir um software que vai resolver um problema

[00:03:49] e é isso que eu preciso saber e ponto.

[00:03:51] A nova versão do…

[00:03:53] Essa foto é muito bonita, qual câmera você usou aí?

[00:03:55] Isso, isso.

[00:03:57] Que câmera você usou pra fazer essa foto?

[00:03:59] Que ferramenta você usou pra fazer esse vídeo?

[00:04:02] Qual é a melhor ferramenta de IA?

[00:04:04] O chat de EPT,

[00:04:05] o DeepSeq é melhor que o chat de EPT?

[00:04:07] Essas perguntas, elas não fazem sentido.

[00:04:10] Por quê? Ah, porque elas

[00:04:11] são a mesma coisa que responder

[00:04:14] a pergunta…

[00:04:15] Tipo, ah, você prefere

[00:04:17] um carro ou uma bicicleta?

[00:04:19] Ah, tá bom. Assim…

[00:04:21] Eu acho que essa pergunta, ela vem,

[00:04:23] ela nasce de que

[00:04:25] todo dia tá saindo. A nova versão,

[00:04:27] o chat de EPT ou a ferramenta que mistura

[00:04:29] não sei o que lá. Então,

[00:04:31] de um medo das pessoas estarem desatualizadas,

[00:04:34] não saber ou não serem

[00:04:35] capazes de comparar o DeepSeq com o chat

[00:04:37] de EPT, mas não é por aí.

[00:04:39] A tua questão com essa pergunta

[00:04:40] é isso do carro e da bicicleta.

[00:04:43] Essa questão com a minha pergunta é a ideia de que

[00:04:46] às vezes eu acho

[00:04:47] que as pessoas… E assim, se a gente vem produzindo

[00:04:49] conteúdo sobre isso, que o conteúdo que irrita sobre isso

[00:04:51] é conteúdo de ferramenta. Sim.

[00:04:53] É isso. E o ponto é

[00:04:55] que não

[00:04:57] vai resolver o problema de ninguém, porque primeiro

[00:04:59] que o trabalho com AI

[00:05:01] hoje, dá pra você trabalhar, pra você fazer

[00:05:03] coisas, seja lá o que for com AI.

[00:05:06] Normalmente, se você estiver realmente

[00:05:07] fazendo um… Se for um heavy user,

[00:05:09] você vai precisar de várias ferramentas. Tá.

[00:05:12] Não importa o que você fizer. Seu cartão de crédito

[00:05:13] com o Qlute. Isso. É. Você vai

[00:05:15] precisar de várias ferramentas. Isso é uma coisa.

[00:05:19] E…

[00:05:20] Qual é melhor pra tal coisa?

[00:05:22] Assim, obviamente, pra cada

[00:05:23] categoria vai ter um leque ali de algumas que são mais

[00:05:25] interessantes. E…

[00:05:27] As categorias também se sobrepõem.

[00:05:29] Então, tem ferramentas… Igual qualquer

[00:05:31] outro software, né? Tem software de determinados grupos

[00:05:33] que fazem uma coisa e não faz outra. Enfim.

[00:05:35] Mas o ponto é

[00:05:37] que as ferramentas

[00:05:39] elas

[00:05:40] servem pra coisas distintas. Então,

[00:05:43] se você me perguntar qual que é

[00:05:45] a melhor LLM, eu vou te perguntar

[00:05:47] pra quê? E qual que é o contexto?

[00:05:49] Se você quiser fazer um bot

[00:05:51] ligado no WhatsApp

[00:05:52] pra o atendimento ao cliente

[00:05:55] da sua clínica, se você tiver

[00:05:57] dinheiro, eu vou te falar pra usar o short GPT.

[00:05:59] Se você não tiver dinheiro, talvez eu te fale pra usar

[00:06:00] a Meta AI, que é de graça, a API.

[00:06:02] Se você estiver falando de

[00:06:04] uso diário… O tipo de texto…

[00:06:07] O tipo de texto que você vai escrever, o tipo de analisa

[00:06:09] que você quer fazer, o que você… Saca?

[00:06:11] Nunca usei e quero começar.

[00:06:12] Ah, uso o short GPT.

[00:06:14] Ah, eu já uso o Qlute e o short GPT

[00:06:17] e faço tal uso.

[00:06:18] Aí eu vou falar, de repente, uma dessas duas, assim.

[00:06:21] A pergunta de qual é a melhor ferramenta e qual é a melhor

[00:06:23] LLM é uma pergunta que parte

[00:06:25] de uma premissa já equivocada.

[00:06:27] E eu acho que também, não sei se você concorda,

[00:06:29] muda, né? Então, eu sempre

[00:06:31] fui um defensor do Qlute. Ah, o Qlute é melhor

[00:06:33] pra texto, eu uso muito pra texto.

[00:06:35] E um dia, sei lá, duas, três

[00:06:37] semanas atrás, você passa

[00:06:39] raiva xingar

[00:06:41] o Qlute, ele, tipo,

[00:06:43] desrespeitando o prompt.

[00:06:45] Me desrespeita. Eu falava, por exemplo,

[00:06:47] não pode escrever…

[00:06:49] Não usa a construção de frase.

[00:06:51] Não é sobre tal coisa, é sobre tal coisa.

[00:06:53] Uma coisa bem… Ah, ele nos escreve demais.

[00:06:55] Ele nos escreve antes de falar.

[00:06:57] E ele escrevia isso, eu fui ficar… Aí eu falei, cara,

[00:06:59] eu vou no chat EPT, que eu nunca gostei

[00:07:01] do texto dele, mas aí

[00:07:03] eu acho que como eu fui arredondando o meu prompt,

[00:07:05] o chat EPT, eu falei, beleza,

[00:07:07] entrei lá, cancelei o Qlute,

[00:07:09] aí, na semana seguinte, usei o

[00:07:11] Qlute Code, que pra brasileira

[00:07:13] deve ser o pior nome, Qlute, Qlute,

[00:07:15] pra fazer o site do Apresentar

[00:07:17] Show, e achei animal.

[00:07:19] As coisas funcionando de primeiro, falei, droga,

[00:07:21] não vou poder cancelar o Qlute. É isso, é isso.

[00:07:23] Então, vai mudando. Você usa uma

[00:07:25] feature de uma, aí de outra você usa outra.

[00:07:27] Outra feature, e aí… Sim, isso é ruim, obviamente,

[00:07:29] a maioria das pessoas vai

[00:07:30] querer escolher uma em cada, né? Sim.

[00:07:33] Então, beleza, aí nesse caso, me conta

[00:07:35] o seu contexto, que aí eu vou te falar qual que eu acho

[00:07:37] que você deveria escolher, mas

[00:07:38] eu mesma, acho que como você,

[00:07:41] eu trabalho com uma caixa de

[00:07:43] ferramentas. E aí também tem um negócio que é

[00:07:45] uma pergunta que vem muito pra

[00:07:47] vídeo, que é

[00:07:48] ver um vídeo incrível e falar, que ferramentas você usou pra fazer isso?

[00:07:51] Cara, hoje,

[00:07:53] qualquer pessoa que tá produzindo um vídeo

[00:07:55] foda que você viu, essa pessoa usou muitas

[00:07:57] ferramentas pra fazer, mas mais

[00:07:59] do que isso, bota todas as

[00:08:01] ferramentas que ela usou

[00:08:03] na minha mão e não vai sair nada.

[00:08:04] Boa, boa. Mais do que isso,

[00:08:07] você tem uma equipe, você tem pessoas que

[00:08:09] tão muito, que sabem, mano, que são

[00:08:10] fodas em usar AI pra fazer audiovisual, tá ligado?

[00:08:13] E foda também em usar

[00:08:14] ferramenta de edição de vídeo

[00:08:16] de corte, de tipo

[00:08:18] Premiere, Final Cut, isso, isso.

[00:08:22] Vídeo com AI,

[00:08:23] o que que o vídeo com AI hoje

[00:08:25] traz de real, né, de

[00:08:26] diferente? Eu falo isso sempre que eu

[00:08:28] as pessoas também fazem reunião

[00:08:31] sobre isso, né, a galera vem pedir consultoria

[00:08:33] e fala, ah, não, mas se eu melhorar meu workflow

[00:08:34] de conteúdo e vídeo, eu falo, ó,

[00:08:36] vídeo é o seguinte, o que que mudou?

[00:08:39] Mudou que se você queria fazer um vídeo numa

[00:08:40] locação cara, e aí você ia ter que ir lá

[00:08:43] abrir câmera, contratar ator, tipo,

[00:08:44] isso tem um custo, e agora você consegue fazer

[00:08:46] isso sem ter esse custo, você vai

[00:08:48] pagar a ferramenta, tem o custo da ferramenta, então o primeiro

[00:08:50] não é de graça, tem o custo da ferramenta

[00:08:52] que, dependendo do que você for fazer, não é

[00:08:54] baratíssimo, é um custo, sim.

[00:08:56] É mais barato que viajar pra Grécia. Muito mais

[00:08:59] barato que viajar pra Grécia com toda uma equipe

[00:09:00] de filmagem, fotografia e

[00:09:02] catering, e figurino, e blá blá blá,

[00:09:05] bem mais barato, isso é uma coisa. A outra

[00:09:06] coisa que não dispensa

[00:09:08] um workflow muito bem encadeado, é um monte de

[00:09:10] ferramenta, é um monte de processo, pra você

[00:09:12] criar vídeo com AI, você

[00:09:14] tem que saber criar foto com AI, animar a foto

[00:09:16] do jeito certo, pra conseguir gerar uma foto

[00:09:18] válida, você vai gerar umas 50,

[00:09:21] pra gerar um vídeo válido, também vai

[00:09:22] gerar uns 50, tudo isso come crédito,

[00:09:25] e tem que ter gente

[00:09:26] treinada pra fazer isso. Então, não

[00:09:28] basta uma ferramenta na mão

[00:09:30] de uma pessoa,

[00:09:32] não vai sair. Até porque,

[00:09:35] no fim das contas, o, acho que o

[00:09:36] grande trunfo dos melhores vídeos com

[00:09:38] AI incríveis que você viu por aí,

[00:09:40] se você trabalhar com, o pessoal que trabalha com

[00:09:42] publicidade e tal, essa coisa dos vídeos de AI e tal,

[00:09:45] o maior trunfo desses vídeos não é AI,

[00:09:46] é o roteiro deles. É o roteiro, isso.

[00:09:48] E a edição, e o ritmo e tal. É, exato.

[00:09:51] Que continuou dependendo, e precisa

[00:09:52] da edição tradicional, depois você vai fazer,

[00:09:54] a AI não gera vídeos, né? O Paulo Aguiar

[00:09:56] fala isso, meu amigo lá, pra quem não segue

[00:09:58] ele, agora o Instagram dele é tipo

[00:10:00] paulo.ia, que é ótimo. Mas o

[00:10:02] Paulo, ele é tipo um cara muito

[00:10:04] bom de criação de vídeo, e

[00:10:06] faz conteúdos muito fodas disso com o IA.

[00:10:08] Ele fala, IA não faz vídeo, a IA faz cenas.

[00:10:11] Boa. E aí você vai colar essas cenas

[00:10:12] com o seu software da sua preferência de edição,

[00:10:15] não vai mudar, não é já?

[00:10:17] Então, tem esse equívoco

[00:10:18] de achar que tudo

[00:10:20] ficou muito fácil. E aí,

[00:10:22] o que que eu acho? Eu acho que

[00:10:24] ficou fácil essa coisa da

[00:10:26] média, né? A IA,

[00:10:28] pra várias competências, o que ela consegue

[00:10:30] fazer, é você imaginar

[00:10:32] uma gradação, tipo, você tem as pessoas

[00:10:35] que, sei lá, são muito

[00:10:36] boas numa coisa,

[00:10:39] e aí você tem as pessoas que são ruins

[00:10:40] nessa coisa.

[00:10:42] O que a IA faz, ela consegue

[00:10:44] jogar as pessoas ruins pra média.

[00:10:47] Tá. Então, ela joga as pessoas

[00:10:48] que não sabem fazer aquilo pra cima.

[00:10:51] As pessoas que já sabem fazer aquilo…

[00:10:52] Tipo eu escrevendo contrato ou revisando

[00:10:54] contrato jurídico. Isso.

[00:10:56] Perfeito o exemplo. Agora,

[00:10:59] se você pegar um advogado muito bom

[00:11:00] e ele usar a IA pra fazer o contrato, se ele não souber usar a IA,

[00:11:03] ele vai ser jogado pra baixo. Tá. Também,

[00:11:04] pra média. Se ele souber usar a IA,

[00:11:07] pode ser que, aí então, a capacidade

[00:11:09] foda dele fique mais foda, mas ele precisa saber

[00:11:10] usar. Então, eu acho que

[00:11:12] essa é uma boa definição, porque

[00:11:14] vai pra uma coisa que é, a IA resolve tudo?

[00:11:18] Porra, não.

[00:11:19] Mas ela joga pra média. Nas coisas

[00:11:20] que você não sabe fazer, nas coisas que você é ruim,

[00:11:22] ela vai te jogar pra cima. Se você não

[00:11:24] souber usar, nas coisas que você é muito bom, você vai

[00:11:26] ser jogado pra baixo. Você vai pra média. É a

[00:11:28] mediocridade, não no sentido que a palavra ganhou,

[00:11:30] né, de coisa ruim, mas de média mesmo.

[00:11:32] De média. Literalmente de média.

[00:11:34] Como é que você veio parar nesse mundo da inteligência?

[00:11:36] Você é formado em jornalismo?

[00:11:38] É uma loucura, cara. Nem eu sei direito.

[00:11:40] Nem eu sei. Não sei nem como eu vim parar aqui.

[00:11:43] Só tem seis anos.

[00:11:44] Eu sempre fui nerdinha, né, de tecnologia.

[00:11:47] Eu, aos

[00:11:48] dez anos, eu…

[00:11:50] Meu presente de aniversário foi um curso da

[00:11:52] microcamp. Porra. De HTML

[00:11:55] e Dreamweaver e Fireworks.

[00:11:56] Porra. Caraca, tempos mais simples.

[00:11:58] E tinha um aluno por micro lá no Rui de Ramos em São Bernardo do Campo.

[00:12:00] Porra, né? Que era um diferencial,

[00:12:02] não é? Um aluno por computador. Porra, era, porque

[00:12:04] em algumas escolas eram dois alunos por micro.

[00:12:06] No caso, chamávamos de micro. Que isso.

[00:12:08] Que, claro, o micro é o microcomputador.

[00:12:11] Porra, tempos bem simples,

[00:12:12] né, cara? Tempos

[00:12:14] otimistas com relação à tecnologia e à internet.

[00:12:16] Eu fiz a colônia de

[00:12:18] férias da microcamp, tipo, em

[00:12:20] 1900 e… Isso!

[00:12:22] Cara, sei lá,

[00:12:25] 1985-90.

[00:12:26] Sim, em… Não vou lembrar.

[00:12:28] Itapecerica da Serra.

[00:12:30] E aí era isso. Ela tinha gincana,

[00:12:32] piscina, não sei o quê, cabo de guerra

[00:12:34] e aula de computer.

[00:12:36] Um aluno por micro. Não lembro se era um por micro.

[00:12:38] Agora é uma boa pergunta.

[00:12:40] Aí a gente ia lá pros computers, era o

[00:12:42] diferencial, era isso.

[00:12:44] Vou mandar meu filho nerd pra natureza, mas

[00:12:46] ele vai querer ir porque tem os computers lá.

[00:12:48] E era microcamp. O camp é disso,

[00:12:50] que era um acampamento, é onde nasceu o microcamp.

[00:12:52] Ah, cara, eu não sabia. Cara, se parar a pensar,

[00:12:54] dois alunos por micro é uma experiência que é muito

[00:12:56] exclusiva. Assim, as pessoas não pensam

[00:12:58] assim, sei lá, toda uma geração

[00:13:00] inteira. E eu acho que, nesse caso,

[00:13:02] depende da classe social, uma geração inteira

[00:13:04] não tem, não sabe o que é a experiência de

[00:13:06] de repente dois alunos por micro. Porque o uso

[00:13:08] dessas pessoas vai ser de celular.

[00:13:10] Sim. Se você é de classe

[00:13:12] mais baixa, usa de celular, não é uso de computador.

[00:13:15] E quando você usa computador,

[00:13:16] aí beleza, pode ser que seja o seu amigo, mas

[00:13:18] principalmente se você vai usar com alguém do seu lado, né? Você tem que dividir o uso.

[00:13:20] Não é um hábito, né? Mas enfim.

[00:13:22] Era um aluno por micro, eu não precisava também me preocupar com isso.

[00:13:25] É… E aí…

[00:13:26] Obrigado. E aí…

[00:13:28] Então é isso, eu sempre… Na real, a tecnologia

[00:13:30] entrou na minha vida porque tem uma

[00:13:32] tia que ela é…

[00:13:35] Até hoje,

[00:13:36] trabalha no segmento de gráficas.

[00:13:38] Então ela foi uma das primeiras pessoas que se

[00:13:40] conhecia a ter um computador.

[00:13:41] Aí, esse computador ficava na casa da minha avó,

[00:13:44] que era onde minha tia morava. E eu era bem pequena.

[00:13:46] E aí, quando eu ia pra casa da minha avó,

[00:13:48] aí meu pai fez pra mim um e-mail, que até hoje

[00:13:50] é o meu, arroba na BSF.

[00:13:52] Foi o e-mail que meu pai fez.

[00:13:54] E aí, eu

[00:13:55] comecei a usar a internet.

[00:13:57] Então, eu tinha uma relação com a tecnologia que vem de

[00:13:59] muito pequenininha, né? E não era comum

[00:14:02] tanto na minha idade, naquela época.

[00:14:04] Não era todas as crianças… Nenhuma criança, na verdade,

[00:14:06] tinha acesso. Eu com 7, 8 anos.

[00:14:08] Quando eu tinha uns 14, 15, já…

[00:14:09] Todo mundo já tinha. Meus amigos adolescentes, todo mundo tinha

[00:14:11] a internet e a rádio, inclusive, tinha. Internet rápida.

[00:14:14] No meu prédio.

[00:14:15] Eu sempre tive essa proximidade com tecnologia,

[00:14:17] mas eu nunca fui

[00:14:18] de tech. Só que eu sempre fui a pessoa que sabia,

[00:14:22] que entendia pra fazer

[00:14:23] o trânsito. E aí, eu acho que é por conta…

[00:14:25] Dessas aulas de HTML

[00:14:27] muito nova e tal, eu acho que

[00:14:29] eu consegui desenvolver esse

[00:14:30] pensamento meio analítico, meio de pensar

[00:14:33] igual programador. O lance do…

[00:14:36] Sei lá, dos workflows

[00:14:38] e isso, então aquilo.

[00:14:39] Ficou meio… Eu entendi

[00:14:41] como os computadores funcionavam. Então, quando

[00:14:43] eu comecei a publicar as coisas

[00:14:45] que eu escrevia muito nova, aí eu comecei a monetizar

[00:14:47] meu blog, que aí eu…

[00:14:49] Nessa época, eu conheci você. Você não me conhecia.

[00:14:51] Tá bom. Mas você era um famoso

[00:14:53] hospedador de blogs, então eu já te conhecia.

[00:14:55] Sim. Onde conheci Carlos Merigo também.

[00:14:57] Pronto. Aí, ó. Eu já te conheci. Você era famoso.

[00:14:59] Você tinha blog. Como era seu blog, mano?

[00:15:00] CrisDias.com. CrisDiasWeblog. Sei lá.

[00:15:02] Ah, você era uma famosa. Eu já te conhecia. E aí, comecei a fazer

[00:15:05] até publi pra marca, na época e tal.

[00:15:07] E aí, só que tudo isso… Então, você era mais bem-sucedido

[00:15:09] do que eu, que eu nunca fiz um publi. Pô, eu fiz vários.

[00:15:11] Eu era estagiária do Estadão. No estágio, eu ganhava

[00:15:13] 800 reais por mês.

[00:15:15] E aí, tipo, tinha… Sei lá, tinha uma…

[00:15:17] Na época, eu fiz uma campanha pra CloseUp, que eu era

[00:15:19] tipo embaixadora da CloseUp, que eu fiquei

[00:15:21] três meses ganhando, sei lá,

[00:15:23] uns 600 reais por mês. Era tipo…

[00:15:24] Eu tinha que fazer um post por dia no blog deles.

[00:15:26] Mas tinha também um monte de… Ah, nossa. Acabou de me lembrar

[00:15:29] que eu já fiz coisas assim.

[00:15:30] Teve um incrível que eu fiz pra Chevrolet, uma vez que eu ganhei

[00:15:32] tipo 1.800 reais por três posts.

[00:15:34] Que foi… Foi assim, um negócio… Caralho.

[00:15:37] Era muito dinheiro, né? Mas…

[00:15:39] Eu tinha o blog e tal. E, obviamente,

[00:15:41] naquela época, pra você fazer todas essas coisas, você tinha

[00:15:43] que fazer essas coisas. Eu tive que criar

[00:15:44] esses sites. Eu tinha que programar essas coisas.

[00:15:47] Quando eu fui pro jornalismo, comecei a fazer jornalismo

[00:15:49] e fui trabalhar imediatamente com

[00:15:50] jornalismo. Eu comecei a trabalhar antes da faculdade,

[00:15:53] inclusive, na verdade. Comecei a trabalhar com 16.

[00:15:54] Eu trabalhei em agência

[00:15:56] de comunicação e tal. Eu era a única que

[00:15:58] manjava de tech. Os mais velhos manjavam de tech

[00:16:01] e os mais jovens na minha idade também não.

[00:16:02] Tipo, na faculdade, eu consegui um emprego

[00:16:04] assim que eu entrei na faculdade, no laboratório

[00:16:07] de jornalismo da faculdade, um emprego remunerado

[00:16:08] que, tipo, tinham pouquíssimos e que era

[00:16:10] um emprego que, normalmente, só seria pra pessoas

[00:16:12] a partir do quarto semestre.

[00:16:15] Só que não tinha ninguém que sabia

[00:16:16] programar HTML e CSS pra poder subir

[00:16:18] o vídeo do jornal

[00:16:20] da faculdade, né, o jornal,

[00:16:23] o telejornal da faculdade, no site.

[00:16:26] Que era isso que eu fazia.

[00:16:26] Eu atualizava o site com o vídeo do telejornal, da edição

[00:16:28] semanal. Então, eu meio que sempre era

[00:16:31] a menina do TI, mas que não era do TI, entendeu?

[00:16:33] Porque eu não era do TI. Eu era a menina

[00:16:35] do TI que sabia escrever e

[00:16:36] aí eu fui sempre me posicionando

[00:16:39] nesse lugar. Mesmo quando eu trabalhei

[00:16:41] no jornal. E aí, eu acabei

[00:16:43] quando eu trabalhei no jornal, fui trabalhar no portal

[00:16:45] fiz várias coisas. Todos os lugares

[00:16:47] que eu trabalhei, eu sempre fiz, tipo,

[00:16:48] eu tava fazendo uma coisa

[00:16:50] e as pessoas falavam assim, muito legal isso que você fez, agora vem aqui

[00:16:52] resolver esse problema. Aí eu fazia, muito legal

[00:16:54] agora vem aqui resolver esse outro. Eu sempre fui, sei lá

[00:16:56] inconstante.

[00:16:58] Explorada, não?

[00:17:00] Explorada, não. E aí eu fui

[00:17:02] no Estadão, eu fui trabalhar no Link, que

[00:17:04] até hoje é o caderno de tecnologia do

[00:17:06] Estadão, mas que na época era meio

[00:17:08] a gente fazia coisas que

[00:17:09] só a gente fazia, era muito massa.

[00:17:12] Hoje, assim, o fluxo de

[00:17:14] memes novos, virais

[00:17:16] é uma coisa muito rápida, na verdade, que a gente não acompanha

[00:17:18] mas naquela época não era.

[00:17:20] Na época tinha um grande viral por

[00:17:22] mês. Sim.

[00:17:24] E aí a gente foi os primeiros a

[00:17:26] analisar isso da perspectiva cultural,

[00:17:28] social, entrevistar os caras

[00:17:30] dos virais, sabe? Eu entrevistei

[00:17:32] o cara do… Lembra daquele

[00:17:34] aquele viral da música do cara

[00:17:36] Hide Your Kids, Hide Your Wife? Ah, sim.

[00:17:38] Eu entrevistei esse cara. Caraca, não é normal.

[00:17:40] Eu entrevistei o Arroba Jack

[00:17:42] do Twitter, conheci a Rosana Herman

[00:17:44] na ocasião, conheci muita gente

[00:17:46] do ativismo da internet livre

[00:17:48] na época. Então, a

[00:17:50] minha relação com o tech vem daí, assim, não é uma

[00:17:52] surpresa que eu tenha aproximado de AI porque eu nunca

[00:17:54] não estive nesse lugar

[00:17:56] mas quando eu fui

[00:17:58] pra… Depois fiquei 10 anos no jornalismo, eu fui

[00:18:00] pra publicidade e na publicidade, assim,

[00:18:02] no fim da minha carreira no jornalismo,

[00:18:04] nas redações, eu saí

[00:18:06] de jornalismo porque eu tava pirando muito

[00:18:07] em

[00:18:09] sistematizar

[00:18:11] a minha performance como

[00:18:14] produtora de conteúdo. Tipo assim,

[00:18:16] eu produzia as matérias e os meus textos

[00:18:18] vou falar, vai parecer que eu tô me achando, que é mentira.

[00:18:20] Mas o que acontece é que os meus textos iam muito bem.

[00:18:22] E eu…

[00:18:24] Os meus textos iam muito bem por duas razões. Eu acho que uma coisa é o mérito

[00:18:26] meu de um faro que eu tinha e até um pouco

[00:18:28] tenho pras coisas que tão meio que

[00:18:30] na crista da onda de virar

[00:18:32] mas que não viraram ainda, que ninguém falou sobre.

[00:18:34] Beleza. Mas tinha um outro que era… Eu era melhor

[00:18:36] em fazer as chamadas pra redes sociais mesmo, porque eu usava

[00:18:38] muito mais redes sociais do que os meus colegas repórteres.

[00:18:41] Então, aí eu comecei a pirar

[00:18:42] tipo, será que tinha alguma maneira de

[00:18:44] sistematizar, encontrar padrões

[00:18:46] na maneira como eu produzia essas chamadas

[00:18:48] e na minha seleção de pautas?

[00:18:50] E aí eu comecei a estudar

[00:18:52] isso. Foi… Só que no jornalismo

[00:18:53] não tinha muito espaço pra pirar nisso. Eu fui pra

[00:18:56] publicidade e no lugar que eu

[00:18:58] tava, pelo menos eu acho que não nas publicidades

[00:19:00] você tem necessariamente espaço pra isso, mas eu tive um

[00:19:02] chefe muito massa, que foi muito mentor, assim

[00:19:04] que foi tipo

[00:19:06] um MBA. Tipo, fiz tudo que eu podia

[00:19:08] ter feito de curso de marketing

[00:19:10] de BI, de…

[00:19:12] É, de mídia paga. Tipo, mais

[00:19:14] na visão de gestão, assim.

[00:19:16] E aí, nessa época eu comecei já a ter uma

[00:19:18] pira, tipo, cara, sei lá, modelo

[00:19:20] de linguagem, né?

[00:19:22] De conseguir…

[00:19:24] Se conseguir sistematizar, criar metodologia

[00:19:26] pra prever variáveis

[00:19:28] de conteúdo. Aí, naquela época eu olhei pra isso

[00:19:30] vi o que tinha e falei, cara, não tá lá ainda.

[00:19:32] E aí, no fim de 22

[00:19:34] meu amigo Fê Pacheco

[00:19:35] o GPT 3,5 saiu

[00:19:37] em outubro, acho que foi, de 22.

[00:19:41] Aí eu nem, assim, nem

[00:19:42] tinha um, mas aí foi em novembro de 22, assim

[00:19:44] eu fui encontrar o Fê. Ele tava no Brasil, ele não mora

[00:19:46] no Brasil. Aí ele tava no Brasil

[00:19:48] a gente foi pro bar e ele falou, nossa, tem que ver isso.

[00:19:50] Não tá ligado. Eu falei, ah, não, tipo, não, você tem que ver

[00:19:52] isso, você não tá entendendo.

[00:19:54] Aí eu fiquei em choque.

[00:19:57] E aí tudo mudou.

[00:19:58] Eu falei, cara, eu preciso, isso aqui

[00:20:00] precisa fazer, precisa ser parte central

[00:20:02] do que eu faço a partir de ontem, assim.

[00:20:04] A minha versão disso é um

[00:20:06] todo fim de ano a gente vai pro Rio, Natal,

[00:20:08] não sei o que, aí eu falei, tá bom, agora deixa eu

[00:20:10] deixa eu mexer nesse negócio aí que tá

[00:20:12] todo mundo falando. Aí foi esse choque, assim, caraca

[00:20:14] olha o que dá pra fazer, não sei o que,

[00:20:16] tal. Eu fiquei, enfim,

[00:20:18] pirando, aí eu acho que já era o chat

[00:20:20] EPT. Foi fim de 22 ou foi, né?

[00:20:22] Eu cheguei a fazer

[00:20:24] algumas brincadeiras

[00:20:25] no playground, não tinha chat EPT,

[00:20:28] entrei lá e tal.

[00:20:30] Mas, ah, legal, tá bom, tá bom, entendi. Cheguei

[00:20:32] a escrever sobre isso na newsletter do

[00:20:34] Bono de Internet. Nessa, eu lembro,

[00:20:36] nessas férias eu sentado lá e gastando os créditos

[00:20:38] e, não, acabou, volta amanhã e tal.

[00:20:40] Que isso, comecei a surtar

[00:20:42] e aí eu acho que meio na

[00:20:44] estrada, na volta,

[00:20:46] eu fiquei

[00:20:47] fazendo brincadeiras

[00:20:49] no carro, tipo,

[00:20:50] sortei uma carta

[00:20:52] e todo mundo que tá no carro

[00:20:55] tem que ficar, sei lá, inventar uma história

[00:20:57] em cima, eu ficava usando o chat

[00:20:59] EPT pra inventar

[00:21:00] coisas e tal.

[00:21:03] Nossa, eu

[00:21:05] pirei e, enfim.

[00:21:07] Dito tudo isso, como é que

[00:21:09] você, hoje, olhando

[00:21:10] o que você já falou no início do programa, do entendimento

[00:21:13] das pessoas, essa tua

[00:21:15] vivência de tecnologia,

[00:21:16] eu hoje de manhã fiz um post no

[00:21:18] LinkedIn Disney, até te marquei,

[00:21:20] lá. Me marcou? Você, se tiver…

[00:21:23] Pô, eu entrei e não recebi.

[00:21:24] Eu tive uma dificuldade de marcar, porque ele

[00:21:26] mostrava várias outras anas,

[00:21:28] mas eu, até onde eu sei, te marquei.

[00:21:30] Eu vou até confirmar

[00:21:32] aqui, quando acabar essa gravação.

[00:21:33] Ah, marcou outra ana. Não, sei lá, vamos descobrir.

[00:21:36] Que é, existe…

[00:21:39] Até eu começar

[00:21:40] a escrever essa pergunta aqui no roteiro e o post,

[00:21:42] na minha cabeça, existem

[00:21:43] dois grupos de pessoas

[00:21:46] que acham que a IA vai destruir

[00:21:48] o mundo, Skynet, robôs,

[00:21:50] nas ruas, e os que acham

[00:21:52] que vai virar o paraíso na Terra,

[00:21:54] filmes de ficção científica,

[00:21:55] Cidade de Vidro, Carros Voadores.

[00:21:58] E aí, a minha brisa aqui,

[00:21:59] que tá lá no LinkedIn,

[00:22:01] é de que se existe alguém, realmente, que

[00:22:03] acredita nesse futuro maravilhoso,

[00:22:05] que nem os donos das

[00:22:07] Big Techs parecem acreditar nisso.

[00:22:10] Eles estão construindo bunkers. Alguém botou nos comentários.

[00:22:12] Não, os caras estão construindo bunker.

[00:22:14] Esquece. Exato.

[00:22:16] Mas, você é uma

[00:22:17] otimista ou uma pessimista em relação

[00:22:19] à IA, nesse poder de transformação

[00:22:21] de mundo? Você acha que vai mudar

[00:22:24] o mundo? Eu acho que é uma das grandes

[00:22:26] invenções da história

[00:22:27] da humanidade, comparável à internet,

[00:22:29] comparável à imprensa. Não

[00:22:31] vou afirmar, não tenho certeza

[00:22:34] que a IA vai virar

[00:22:36] essa superinteligência, que caras como

[00:22:38] Sam Altman… Acho que essa

[00:22:39] superinteligência um dia aparecerá

[00:22:41] se essa solução

[00:22:43] tecnológica que está sendo usada nos

[00:22:45] chat-GPTs da vida, aí eu

[00:22:48] não sei dizer, não necessariamente.

[00:22:49] Mas, você acha

[00:22:51] como é que… Você olha pra isso e fala, não,

[00:22:53] animal, o mundo vai ser melhor a partir de

[00:22:55] agora, ou a gente

[00:22:57] precisa ter cautela, senão vai dar muito ruim?

[00:23:00] Eu sou fundamentalmente

[00:23:01] uma pessimista, mas

[00:23:03] da seguinte perspectiva, é

[00:23:05] tipo, olhando, assim, é uma pessimista

[00:23:08] daquele jeito, se nada for

[00:23:09] feito, vai dar bosta.

[00:23:11] Mas eu não acho que nada está sendo feito, sacou?

[00:23:15] Só que eu acho que

[00:23:15] esse senso de que, se nada

[00:23:17] for feito, vai dar bosta, é importante. Isso, isso.

[00:23:19] Então, é um pessimismo no sentido

[00:23:21] de alerta, né? De cautionary tale,

[00:23:23] que fala em inglês, né? Do tipo, essa

[00:23:25] fábula que te mostra

[00:23:27] tipo, eu acho que

[00:23:29] eu concordo com você, assim, é…

[00:23:31] Você já jogou Spore? Spore?

[00:23:34] Puta, mas eu…

[00:23:37] Quando o jogo

[00:23:38] começava a ficar muito interplanetário,

[00:23:40] eu desisti, eu ficava lá no iniciozinho.

[00:23:42] Mas eu acho um excelente jogo de…

[00:23:43] Assim, pelo menos pra mim, foi muito

[00:23:45] didático. Explica o Spore pra…

[00:23:48] É, eu vou. O Spore é

[00:23:49] um joguinho que você começa como… Do criador

[00:23:51] do The Sims, né? É, é.

[00:23:53] É do criador do The Sims. É super bonito, assim.

[00:23:56] E você… Ele, pô, ele

[00:23:57] fez bastante sucesso na época que foi lançado, mas depois

[00:23:59] nunca mais falou dele e eu acho isso uma pena.

[00:24:01] Porque ele é relativamente simples, mas ele

[00:24:03] te ensina um jeito

[00:24:05] de enxergar as coisas, que é muito útil pra esse momento que a gente

[00:24:07] vive. Um conceito de

[00:24:09] singularidade, que as pessoas não

[00:24:11] entendem muito o conceito de singularidade, né? Se fala da singularidade

[00:24:13] e o Spore é sobre meio isso.

[00:24:15] E você começa com um micro-organismo unicelular

[00:24:18] ativando um grande mar de

[00:24:19] nada, tipo, igual a gente

[00:24:21] lá, sei lá quantos bilhões de anos

[00:24:23] quando se chocou

[00:24:25] um asteroide, sei lá,

[00:24:27] surgiu a Terra e aí

[00:24:29] tinha um grande poço de água

[00:24:31] com coisas, né? É isso. É isso que dizem, né?

[00:24:34] Ou também dizem… Na Bíblia diz outra coisa,

[00:24:35] mas aqui a gente tá indo por essa versão. A minha versão

[00:24:37] é que esqueceram

[00:24:39] cabo de fone

[00:24:41] de ouvido dentro de uma mochila e

[00:24:43] esses fones de ouvido se misturaram e viraram

[00:24:45] o DNA. Quem tem

[00:24:47] mochila bagunçada que nem eu já sabe do que eu tô

[00:24:49] falando. Dá um guia do mochileiro.

[00:24:51] Essa sopa, sopa fundamental.

[00:24:54] E aí você começa com um

[00:24:55] organismo unicelular ali, aí você tem

[00:24:57] que ir fazendo, se conectando com outros organismos

[00:24:59] unicelulares pra formar organismos mais complexos

[00:25:01] e não sei o que, e aí você sai da água

[00:25:03] e aí você vai jogando e aí você

[00:25:05] vai virando e de repente você

[00:25:07] civilizações e você

[00:25:09] sai da Terra e

[00:25:11] cria outras civilizações e aí acaba o Spore.

[00:25:13] É aquele meme do cérebro, né?

[00:25:15] É o novo. E eu acho o Spore

[00:25:17] foda pra meio que

[00:25:19] porque ele é um

[00:25:22] exemplo bom pra você entender

[00:25:23] essa metáfora de alguma forma

[00:25:25] do que a gente tá vivendo e o lance da gente

[00:25:27] até aquela coisa que

[00:25:29] eu sou muito ruim de nomes de

[00:25:30] coisas.

[00:25:34] Eu leio muito e eu tenho

[00:25:35] várias referências, mas assim

[00:25:36] tem aquela Teorias 1000

[00:25:39] que fala de como a gente é uma simulação, né?

[00:25:42] Sim. E aí

[00:25:43] também às vezes fala

[00:25:45] sobre isso, as pessoas não entendem muito bem, mas a lógica

[00:25:48] é meio probabilística, né?

[00:25:49] Isso. É por isso que eu acredito

[00:25:51] nessa teoria. Exato. Tipo, hoje se a gente

[00:25:53] sentar, assim, hoje com

[00:25:55] AI você tem um milhão de universos

[00:25:58] possíveis sendo simulados a todo

[00:25:59] tempo. A probabilidade

[00:26:02] de que a gente também seja um universo simulado

[00:26:03] super sofisticado é muito alta. E aí quando você joga Spore

[00:26:05] você entende isso? Isso. Ou The Sims,

[00:26:07] o próprio The Sims. É, é verdade, porque você tá simulando

[00:26:09] universos ali, tá? Ou qualquer outro jogo, né?

[00:26:11] De, sei lá, realidade

[00:26:13] A chance da gente

[00:26:15] porque a tecnologia

[00:26:17] evolui num ponto onde você consegue

[00:26:19] ter uma pessoa, um computador

[00:26:22] simulando uma pessoa

[00:26:23] aí em 18 meses

[00:26:26] consegue simular duas pessoas

[00:26:28] e assim

[00:26:29] exponencialmente. Isso. Até

[00:26:31] que chega um ponto que você simula a humanidade

[00:26:34] inteira no computador. Que simula a humanidade.

[00:26:37] Até que

[00:26:38] 18 meses depois, porque a tecnologia

[00:26:40] dobra de velocidade, 18 meses

[00:26:42] depois você simula

[00:26:44] a humanidade na metade do tempo

[00:26:46] e assim

[00:26:48] você, e é uma questão de

[00:26:49] uma questão de tempo não, porque a tecnologia

[00:26:51] física do hardware pode chegar no limite

[00:26:53] mas a gente já tá nessa, que é a famosa

[00:26:55] lei de Moore, há, sei lá, 40, 50 anos

[00:26:57] e ainda… Ela se mantém. Ela se mantém.

[00:27:00] É… Lembra aquele episódio

[00:27:01] do Black Mirror do Tinder?

[00:27:03] Não, porque eu não vi. Você não viu Black Mirror?

[00:27:06] Eu, eu… Black Mirror eu vou pulando

[00:27:07] vejo, vejo. Que isso, cara!

[00:27:09] Ah, não, eu sei qual é, da primeira temporada, o…

[00:27:11] Acho que é, não sei se é da primeira. Junipero…

[00:27:13] Não, Junipero não é do Tinder. Junipero é uma linha de história

[00:27:15] de amor, mas não é do Tinder. Ah, não, então tá bom.

[00:27:17] O do Tinder, ele não é da primeira ou segunda temporada,

[00:27:19] eu acho que ele é mais pra frente.

[00:27:21] Esse episódio do Tinder, ele é assim…

[00:27:23] Ah, tô ligado. Não vi, mas…

[00:27:25] É o que tem de um casal que vai, se encontra e tal

[00:27:27] e tudo aquilo que eles estão vivendo

[00:27:29] é, na verdade, só uma simulação pra ver se é um

[00:27:31] match na vida real ou não, né?

[00:27:33] É isso, a tecnologia vai avançar

[00:27:35] num ponto… Eu li

[00:27:37] essa mesma história num livro chamado

[00:27:39] Acelerando, do

[00:27:41] Charles Strolls, que o cara conhece

[00:27:43] a mina, aí ele aperta o botão

[00:27:45] e fala assim, ah, droga,

[00:27:46] não vai dar certo, tipo que ele simulou

[00:27:49] todas as… É, é isso.

[00:27:49] Ah, então é uma cópia, então.

[00:27:51] Tá aí, né? As ideias estão no ar aí.

[00:27:53] Então a gente vai

[00:27:55] chegar a um ponto onde um

[00:27:57] telefone consegue rodar

[00:27:59] a humanidade inteira, simular a humanidade

[00:28:02] inteira, quem sabe até num

[00:28:03] joguinho. E todas as complexidades

[00:28:05] advindas disso. E aí o que você falou,

[00:28:08] e a tecnologia

[00:28:09] continua avançando, então dentro do The Sims,

[00:28:12] os bonequinhos do The Sims

[00:28:14] jogam o The Sims,

[00:28:15] tem outro jogo lá dentro.

[00:28:17] E assim vai, vai. Então a probabilidade,

[00:28:19] a probabilidade da gente aqui

[00:28:20] ser a primeira,

[00:28:23] o ponto inicial de que simulou,

[00:28:25] simulou, simulou, é muito baixa.

[00:28:27] Probabilisticamente falando, é muito baixa.

[00:28:29] Mas pode ser, né?

[00:28:31] Que nós sejamos foda. E agora as pessoas já estão chorando

[00:28:32] em posição fetal. A gente é os foda.

[00:28:34] A gente é os foda. Ela já tá em crise, já tá

[00:28:36] remarcando terapia, voltando e tal, desesperado.

[00:28:39] Eu acho que assim, isso também não elimina

[00:28:41] pra quem é crente,

[00:28:43] crente, não tô falando evangélico, tá?

[00:28:45] A gente chama evangélico de crente, tô falando quem é crente

[00:28:46] em alguma religião. Eu não acho que essas coisas

[00:28:48] são opostas. Eu acho que

[00:28:50] inclusive elas são sobrepostas.

[00:28:52] Eu acho que é um jeito muito interessante

[00:28:54] de falar, tipo, que você tem um

[00:28:56] grande arquiteto que gera

[00:28:58] simulações, que geram simulações, que geram

[00:29:00] simulações, mas enfim. Então

[00:29:02] é isso assim, eu acho que eu sou pessimista no sentido

[00:29:04] de que eu acho realmente que isso

[00:29:06] pode, tem todo o poder

[00:29:08] de ser a nossa,

[00:29:11] o nosso fim.

[00:29:12] Mas o fato de que tem pessoas

[00:29:14] que alertam pra isso

[00:29:16] é a coisa que pode

[00:29:18] impedir, porque essa tecnologia é poderosa

[00:29:20] a ponto de criar salvaguardas

[00:29:22] pra evitar esse fim. Essa é a real,

[00:29:24] essa é que as pessoas não enxergam.

[00:29:26] Ou que as pessoas que são otimistas demais

[00:29:28] pesam demais isso. Fala assim, não, mas

[00:29:30] a AI é incrível e a própria AI vai

[00:29:32] que… Pera, mas se você não fizer nada

[00:29:34] pra isso, se você ficar focando

[00:29:36] só no… achando que é

[00:29:38] tudo uhul, aí não,

[00:29:40] porque ela não vai ser orientada

[00:29:42] pra isso, ela não vai… as pessoas… até porque

[00:29:44] não é isso que

[00:29:46] pra maioria olha pra todos e

[00:29:48] iniciativas, pra todas as big techs que

[00:29:49] que agora são todas, mas que tão

[00:29:51] mergulhando em AI, e ninguém

[00:29:54] tá, porra,

[00:29:56] preocupado em criar a AI que vai

[00:29:58] resolver o problema do aquecimento global.

[00:30:01] Assim,

[00:30:02] tem essa coisa, né, essa galera do

[00:30:04] Silicon Valley falando, não, mas vai criar

[00:30:06] uma AI que vai resolver nossos grandes problemas, mas a real

[00:30:08] é que eles tão fazendo isso

[00:30:10] abrindo o chat

[00:30:12] GPT pra uso de pornografia, o que

[00:30:14] a propósito, não é nem que eu sou contra

[00:30:16] a favor, mas é, essa

[00:30:18] prioridade tá aí, tá ligado?

[00:30:20] É aquela frase do cara que era ex-funcionário

[00:30:22] que é ex-funcionário da Meta

[00:30:24] que é, as mentes mais brilhantes

[00:30:26] da minha geração estão

[00:30:27] fazendo as pessoas clicar mais em

[00:30:30] publicidade, então é

[00:30:32] questão de prioridade, mas isso

[00:30:34] você tá falando uma coisa que eu acho

[00:30:36] que é uma conversa importante pra ter

[00:30:38] inteligência artificial

[00:30:39] isso aí, primeiro, isso aí

[00:30:42] que você acabou de escrever, tem uma newsletter também

[00:30:44] do Bônus da Internet, tô gostando que você tá me dando a oportunidade

[00:30:46] de falar da newsletter pra quem apoia

[00:30:48] foi de propósito, é, foi a gente que combinou

[00:30:50] quem apoia o Bônus da Internet

[00:30:52] que eu chamo de paradoxo do fim do mundo

[00:30:53] que é, a gente tá, sei lá, 10 mil anos

[00:30:55] dizendo que o mundo vai acabar, ele não acabou

[00:30:58] mas se também a gente

[00:31:00] relaxar e falar, não, galera, o mundo não vai acabar

[00:31:01] deixa aí o Trump não sei o que, o Putin não sei o que

[00:31:04] lá, não, aí o mundo acaba

[00:31:05] então a gente tem que… tem que viver sempre

[00:31:07] com a adrenalina onde, ó, aqui

[00:31:09] ninguém pode relaxar, não

[00:31:12] é, não é pra

[00:31:14] viver desse jeito, mas também não é pra

[00:31:15] não, deixar, mas e você falou

[00:31:18] global e tal, ah, não, relaxa

[00:31:20] porque a inteligência artificial vai resolver

[00:31:22] inclusive os problemas que ela mesma

[00:31:24] tá criando de consumo de água

[00:31:26] não sei o que, não sei o que lá, é, eu acho que

[00:31:27] eu já ouvi você usar a expressão

[00:31:29] terceirizar o pensamento humano

[00:31:32] pra algoritmos, como a gente combate

[00:31:34] isso, o que que a gente tem que prestar atenção

[00:31:36] ficar de olho, ó, se você

[00:31:38] perceber esse tipo de coisa acontecendo, é isso

[00:31:40] alguém está terceirizando o pensamento

[00:31:42] humano pra algoritmo, o que nos faz

[00:31:44] humanos, ó, vamos ser mais existencialistas

[00:31:46] o que nos faz humanos?

[00:31:48] muitas vezes o meu trabalho com AI é muito comum que eu

[00:31:50] terceirize o meu pensamento, assim, e eu faço

[00:31:52] isso deliberadamente, e eu não deveria

[00:31:54] porque eu vejo o impacto que isso tem

[00:31:56] não exercita a minha capacidade

[00:31:58] de resolução de problema, tanto quanto eu gostaria

[00:32:00] mas acho que tem uma questão de

[00:32:01] específica de necessidade

[00:32:04] de tipo, eu preciso entregar essas

[00:32:06] coisas todas nesse período de tempo, então

[00:32:08] bora e tal, é, não é

[00:32:10] o cenário ideal e pra maioria das pessoas não é

[00:32:12] e se eu puder fazer ele ser ideal e aí

[00:32:14] o meu papel também como criadora de conteúdo

[00:32:16] sobre isso é falar como eu acho que as coisas deveriam ser

[00:32:18] mas não necessariamente

[00:32:20] elas podem ser assim o tempo todo

[00:32:22] nem pra mim, nem pros outros, né

[00:32:23] que vivemos num sistema que o prazo é amanhã

[00:32:26] o prazo é amanhã, exatamente

[00:32:27] tem todo esse neoludismo, né, tem tipo

[00:32:29] um monte de gente, e esse pessimismo com

[00:32:32] AI não é, eu não acho ele

[00:32:34] despropositado

[00:32:35] tipo, acho que tem a ver com

[00:32:38] o que você falou com o Ted Chiang

[00:32:39] olhem só a voz que vocês vão ver

[00:32:41] acho que é o que você falou no papo com o Ted Chiang

[00:32:44] assim, tipo, né, as pessoas

[00:32:46] não tem medo da tecnologia, mas elas tem medo

[00:32:48] do capitalismo com a tecnologia

[00:32:50] o que que o capitalismo vai usar

[00:32:51] como vai usar a tecnologia

[00:32:53] e aí, eu acho isso muito justificado

[00:32:55] ao mesmo tempo, eu andei conversando com umas pessoas

[00:32:58] e pensando uma coisa que me

[00:32:59] inspirou, assim, da perspectiva

[00:33:02] meio política mesmo, de mobilização

[00:33:04] de ativismo pro mundo, assim

[00:33:05] que é, a gente tem um ceticismo

[00:33:08] com relação a tecnologia, porque as pessoas que

[00:33:10] controlam a tecnologia são esses

[00:33:11] grandes bilionários que tem interesses

[00:33:14] corporativos, né

[00:33:16] que não nos atendem

[00:33:18] frequentemente vão contra os nossos interesses

[00:33:20] e isso é um problema

[00:33:21] mas ao mesmo tempo, em muitos casos

[00:33:24] a gente consegue sim usar essa tecnologia

[00:33:26] pra desenvolver

[00:33:28] coisas que, tá, às vezes

[00:33:30] podem estar relegadas aos

[00:33:32] feudos desses bilionários, mas mesmo assim

[00:33:34] nos falta, acho que

[00:33:36] nos falta, eu falo como campo

[00:33:38] de pensamento no mundo, assim

[00:33:40] acho que pras pessoas que são mais progressistas

[00:33:42] assim, nos falta

[00:33:43] ter a tecnologia

[00:33:45] na construção dos

[00:33:47] nossos sonhos de mundo, tipo, a gente não coloca

[00:33:50] tipo, esses caras, eles tem um projeto de mundo

[00:33:52] é um projeto de mundo horrível

[00:33:53] completamente atravessado

[00:33:56] por tecnologia, e é por isso

[00:33:57] que a gente é tão pessimismo com tecnologia

[00:33:59] só que

[00:34:01] existem sonhos possíveis de mundo atravessados por tecnologia

[00:34:04] que são bons pra gente, existem

[00:34:06] é que a gente não criou essas utopias

[00:34:08] nem na cultura pop

[00:34:09] existem, na cultura pop existem distopias

[00:34:12] atravessadas por tecnologia, não existem utopias

[00:34:14] existem utopias atravessadas por uma série de outras coisas

[00:34:16] e por mais que parem

[00:34:17] essa

[00:34:18] improvável, só é improvável

[00:34:21] porque a gente não construiu

[00:34:23] esses sonhos, a gente, eu acredito

[00:34:25] muito nesse lance de que a gente

[00:34:27] precisa visualizar as coisas

[00:34:30] imageticamente pra poder

[00:34:31] acreditar nelas e aí ir atrás delas, saca?

[00:34:33] é a frase que eu vou esquecer quem foi que

[00:34:35] disse, que é mais fácil

[00:34:38] imaginar o fim do mundo do que o fim do capitalismo

[00:34:40] assim, na cultura pop literalmente

[00:34:41] o mundo acabou, os zumbis invadiram

[00:34:44] mas o capitalismo continua lá

[00:34:45] tem moeda, tem relação de poder

[00:34:47] tem

[00:34:47] controle dos meios de produção, tem o negócio todo

[00:34:50] exato, exato, mas tipo, onde estão

[00:34:52] as utopias

[00:34:53] atravessadas por tecnologia?

[00:34:55] onde a tecnologia vai

[00:34:58] nos ajudar a

[00:34:59] projetar e sonhar com futuros

[00:35:02] coletivamente?

[00:35:03] e tem várias opções e várias oportunidades

[00:35:05] que a gente deveria

[00:35:08] pelo menos a maneira como eu

[00:35:09] uso, penso tecnologia

[00:35:11] e sempre fui atravessada por isso, eu só nunca me dei conta

[00:35:14] a tecnologia numa perspectiva

[00:35:16] de

[00:35:17] contribuição pro mundo que eu acredito

[00:35:20] só que o mundo que eu acredito ele é, sei lá, ele é muito

[00:35:22] oposto ao mundo que esses oligarcas

[00:35:24] das big techs acreditam

[00:35:25] só que isso não significa que o problema

[00:35:28] é a tecnologia que tá atravessando

[00:35:30] a visão deles, pelo contrário, a tecnologia

[00:35:32] pode ser a coisa que vai

[00:35:34] viabilizar também essa visão de sonho pra gente

[00:35:36] assim, sei lá, eu só queria falar isso

[00:35:38] porque eu acho que é um negócio…

[00:35:39] ótimo, boa noite

[00:35:42] internet aqui pra isso, em um braincast

[00:35:44] do qual eu participei

[00:35:46] cunhou a frase

[00:35:48] que foi vendida em camisetas, não, mas faltou pouco

[00:35:50] que é

[00:35:51] a IA não vai tirar seu emprego

[00:35:54] quem vai tirar seu emprego é uma pessoa

[00:35:56] que sabe usar a IA

[00:35:57] e aí, algum tempo depois

[00:36:00] você começou a dizer

[00:36:02] é, veja bem

[00:36:04] como é que

[00:36:05] qual a sua opinião sobre isso?

[00:36:07] é que eu acho que vai ser os dois

[00:36:08] eu acho que agora não é só uma coisa que vai tirar seu emprego

[00:36:11] são duas, a IA e as pessoas que sabem usar a IA também

[00:36:14] então assim

[00:36:16] tamo mais fudido

[00:36:16] é porque eu acho que naquele momento isso fazia mais sentido

[00:36:19] e se for ver, hoje ainda faz

[00:36:21] mas a questão é que

[00:36:23] o que a IA vai fazer é diminuir a necessidade

[00:36:25] de especialistas

[00:36:26] não que você não precise de pessoas

[00:36:30] com conhecimento instrumental nas áreas

[00:36:32] só que você não precisa de mais de 10

[00:36:33] você vai precisar de duas

[00:36:35] essas duas vão ter que saber usar a IA

[00:36:36] então vão sobrar ali duas

[00:36:39] que sabem usar a IA

[00:36:41] mas outras oito

[00:36:42] vão ter que aprender a fazer outra coisa

[00:36:44] isso também não é dizer

[00:36:45] que a IA vai fazer mais coisa

[00:36:45] é que outras funções

[00:36:48] não serão criadas, mas eu acho que tem uma

[00:36:49] uma coisa que as vezes as pessoas falam

[00:36:51] não, mas os empregos vão acabar

[00:36:53] não, não vão acabar, outros serão criados

[00:36:55] não, pera, é verdade, outros serão criados

[00:36:58] mas eu acho que

[00:36:59] ninguém consegue dizer com certeza

[00:37:01] se o saldo final

[00:37:02] vai ser positivo, porque eu acho que não vai

[00:37:06] eu não acho que no final a gente vai ser

[00:37:07] hoje você tem 10 mil

[00:37:10] pessoas trabalhando e no futuro você vai ter

[00:37:12] 15, eu acho que não

[00:37:14] eu acho que você vai ter

[00:37:15] 4 mil com outros nomes e outras funções

[00:37:18] tá ligado?

[00:37:20] as pessoas afirmam isso porque historicamente

[00:37:22] é isso que ia acontecer, sempre que uma tecnologia

[00:37:24] automatizava

[00:37:26] nem que fosse o arado, ah agora eu não preciso

[00:37:28] mais de 10 pessoas aqui, uma pessoa

[00:37:30] e um boi

[00:37:31] fazem o trabalho, esse trabalho vai

[00:37:34] subindo, vamos dizer assim, intelectualmente

[00:37:36] subindo, você vai agora

[00:37:38] sei lá, gerenciar

[00:37:40] vender a batata que você plantou

[00:37:42] você vai, só que

[00:37:44] a pergunta agora

[00:37:45] é que

[00:37:48] a gente chegou, a tecnologia chegou na última

[00:37:50] coisa, isso é parte da pergunta

[00:37:52] a tecnologia chegou na última coisa que é

[00:37:54] pensar, que é raciocinar

[00:37:57] que é ser criativo

[00:37:58] o Ted Chiang por exemplo, acha que não

[00:38:00] eu tendo a concordar com ele

[00:38:02] mas assim, a gente tá chegando, a tal da

[00:38:04] ADI, uma das definições é

[00:38:06] é tão inteligente quanto o ser humano e consegue fazer tudo

[00:38:08] que o ser humano faz, então na hora que isso acontecer

[00:38:10] essa máquina consegue

[00:38:12] tirar o emprego das pessoas

[00:38:14] será que consegue?

[00:38:15] será que chegaremos nessa super inteligência

[00:38:18] e tal, então as pessoas

[00:38:19] afirmam isso porque, não, beleza, você vai

[00:38:21] sair do campo e você vai vir pra cidade

[00:38:23] e você vai trabalhar numa fábrica

[00:38:25] ah, mas o robô chegou na fábrica, não, tudo bem

[00:38:27] você vai trabalhar no escritório da fábrica

[00:38:29] você vai ser digital influencer

[00:38:31] sei lá, você vai começar

[00:38:33] o que que sobra pra gente

[00:38:35] no final, e aí tem também a história

[00:38:37] que eu conversei com o Yuri Zero aqui

[00:38:40] no bônus de internet anterior

[00:38:41] que também tem o problema que é

[00:38:43] beleza, as pessoas realmente pararam de trabalhar

[00:38:45] na roça e foram trabalhar

[00:38:48] na fábrica, mas não foram literalmente

[00:38:50] as mesmas pessoas, o cara não sai

[00:38:52] da roça, faz um curso

[00:38:53] no Senac, no Senai

[00:38:55] e agora ele trabalha na fábrica

[00:38:58] tem uma geração

[00:38:59] que fica perdida no meio

[00:39:01] inclusive provavelmente nossos parentes saíram

[00:39:04] de Portugal, da Itália, de onde quer que seja

[00:39:05] pra vir pro Brasil

[00:39:07] porque lá, isso aconteceu lá

[00:39:09] e não galera, agora a gente não precisa

[00:39:11] mais de vocês aqui, se vira

[00:39:13] tchau

[00:39:14] e também guerra

[00:39:16] e também guerra

[00:39:17] então assim, tem essa fase

[00:39:22] de transição de profissões

[00:39:24] eu tô dando, tá pesando o clima

[00:39:26] esse programa tá aqui ó, uuuh

[00:39:27] especial de Natal, bônus de internet, uuuh

[00:39:29] legal galera

[00:39:30] eu não sei, pesa o clima mesmo, mas por outro lado

[00:39:34] eu acho que eu levei isso pra outro lugar

[00:39:36] não sei, antes eu ficava

[00:39:38] eu tive um período bem crítico de

[00:39:40] essa lida com esse tema todo dia

[00:39:42] e isso me, comer minha mente

[00:39:44] assim

[00:39:44] mas eu acho que tem outro ângulo

[00:39:47] que é

[00:39:48] o ângulo de que essas transformações sempre aconteceram

[00:39:52] isso

[00:39:52] as pessoas passaram por elas, sofreram

[00:39:55] como estamos sofrendo e vamos sofrer

[00:39:57] mas a gente não tem nada mais real

[00:40:00] do que a capacidade do ser humano de se adaptar às coisas

[00:40:02] e

[00:40:03] a vida continuar, isso não significa

[00:40:05] assim, de novo, isso aqui não é um discurso de coach

[00:40:07] tipo

[00:40:08] se as coisas, é não, mas é porque eu acho que as coisas

[00:40:11] podem ficar difíceis sim, e mais difíceis

[00:40:13] pra todo mundo, e é uma bosta, mas ao mesmo tempo

[00:40:15] pra elas não ficarem difíceis, é só

[00:40:18] se a gente entender que elas vão ficar difíceis

[00:40:20] e coletivamente

[00:40:21] entender que a gente precisa fazer algo pra isso, saca?

[00:40:24] eu acho que tem a ver um pouco com a história do

[00:40:26] paradoxo do fim do mundo que eu brinquei, que é assim

[00:40:28] pode ser

[00:40:30] que, você já falou isso também né, alguém tem que

[00:40:32] fazer alguma coisa

[00:40:33] pode ser que

[00:40:36] todas essas previsões pessimistas

[00:40:38] deem errado, mas ficar

[00:40:40] parado, sentado nessa cadeira

[00:40:42] que fala, bom galera, é isso

[00:40:43] acabou, não há nada a se fazer, não, a gente tem

[00:40:46] que, alguma coisa, tem que tentar

[00:40:48] ficar sentado esperando

[00:40:50] aí é a garantia de que vai dar errado

[00:40:52] aí a certeza vai dar bosta

[00:40:53] eu acho que as pessoas ficam ansiosas

[00:40:56] desde sempre, com razão, eu acho que o mundo

[00:40:58] tá complexo pra caralho, mas não dá

[00:41:00] pra dizer que nós somos a porção

[00:41:02] de humanidade que mais sofreu

[00:41:04] assim, eu acho que sim

[00:41:06] se você pegar na média, a porção de humanidade

[00:41:08] há 500 anos

[00:41:09] quem tava mais fudido, você dá uma nota

[00:41:12] você dá uma nota

[00:41:12] o score, o score de fodelança

[00:41:14] porra, sei lá

[00:41:16] idade média, eles estavam muito pior

[00:41:18] e eles estavam lá, faziam

[00:41:20] música, tinham festa, bebia, tinha filho

[00:41:22] eu tô falando que estavam bem, gente, teve peste negra

[00:41:24] tava horrível, mas assim

[00:41:25] o lance é

[00:41:27] continua, o sofrimento é da gente

[00:41:30] como indivíduos, obviamente, né

[00:41:31] mas

[00:41:32] eu acho que

[00:41:35] as coisas, elas acontecem, isso eu já

[00:41:38] entendi um pouco, eu acho que eu tinha um desespero maior quando eu comecei

[00:41:40] a estudar AI, porque a coisa parecia tão latente, tão

[00:41:42] assim, na cara, e aí o tempo foi passando, eu falei

[00:41:44] cara, não é tão simples assim

[00:41:46] as coisas não vão desenrolar de maneira tão simples assim

[00:41:47] e tem mais uma coisa que me ocorre

[00:41:49] que é, porra, não é

[00:41:52] completamente do interesse de todas

[00:41:54] as pessoas muito ricas, empresários

[00:41:56] bilionários

[00:41:57] que todo o resto do mundo se exploda

[00:41:59] apesar de parecer que é

[00:42:02] você tem mais fé

[00:42:04] nessas pessoas do que eu

[00:42:05] e veja, vocês vão entender

[00:42:08] eu não tô falando que eles são ótimas pessoas

[00:42:09] eu tô dizendo que

[00:42:12] você é um dono

[00:42:14] de grandes negócios

[00:42:15] é do seu interesse que as

[00:42:18] que a economia esteja

[00:42:20] minimamente funcionando e que as pessoas

[00:42:22] tenham emprego pra poder consumir seu produto

[00:42:24] tipo, senão você vai ter

[00:42:26] que reposicionar completamente

[00:42:28] seu negócio pra dar conta de uma outra coisa

[00:42:30] tipo, eu vou, assim, tem mil exemplos pra dar

[00:42:32] aqui, tá, porque obviamente

[00:42:34] isso não é uma resposta, as pessoas ricas elas se posicionam

[00:42:36] e ficam ricas, mas assim

[00:42:37] pensa

[00:42:39] o Facebook

[00:42:40] pô, o Facebook ganha muito dinheiro de marcas

[00:42:44] com anúncios, mas que eu saiba

[00:42:46] da última vez que eu soube

[00:42:47] o maior dinheiro do Facebook pra anúncio não vem de marcas

[00:42:50] vem

[00:42:52] dos pequenininhos, do dinheiro pequenininho

[00:42:54] que é investido por gente menor, só que no volume

[00:42:55] sim, na época que eu trabalhava lá era

[00:42:58] meio a meio, era meio a meio, beleza

[00:42:59] então ainda é muito dinheiro, né

[00:43:01] as marcas pra conseguirem anunciar tanto, também precisam estar vendendo

[00:43:04] o suquinho Tang

[00:43:05] que é anunciado no Facebook, em grandíssimos volumes

[00:43:08] as Casas Bahia, eles precisam ter gente comprando

[00:43:10] assim

[00:43:10] então tem uma roda aí girando

[00:43:12] que depende

[00:43:14] das pessoas serem economicamente

[00:43:17] ativas de maneira geral, assim

[00:43:18] como modelo macro

[00:43:20] essa é a grande pergunta que eu tenho sobre

[00:43:21] não tem nada a ver com inteligência social, assim

[00:43:23] demissões e tal

[00:43:26] tem uma crise econômica vindo aí

[00:43:29] então a gente tem que demitir

[00:43:31] pra se preparar pra essa crise

[00:43:33] não, mas na hora que você demite, você causa

[00:43:35] essa crise, porque é isso que você acabou de descrever

[00:43:37] ninguém vai gastar dinheiro

[00:43:39] ninguém vai comprar meu produto, aí me

[00:43:40] empresa vai falir, mas é que a minha

[00:43:42] ausência de fé nessas pessoas

[00:43:44] principalmente os líderes lá no topo, topo, topo

[00:43:47] é assim

[00:43:48] quem tem um bilhão de dólares

[00:43:51] no banco, amanhã minha empresa pode falir

[00:43:53] ah, ele pode parar de…

[00:43:54] então deixa de ser dinheiro

[00:43:57] que o dólar dele tenha algum

[00:43:58] algum valor, né

[00:44:00] deixa de ser dinheiro, passa a ser poder, enfim

[00:44:02] mas esquece o que eu acho sobre

[00:44:04] esses caras, eu concordo com o teu ponto de vista

[00:44:07] mas aí vem uma outra

[00:44:08] discussão, que aí a gente volta

[00:44:10] semana que vem e

[00:44:11] conversa, que é a visão lá

[00:44:14] do cara que é grego, portanto

[00:44:16] eu não sei falar o nome dele

[00:44:18] que é o ex-ministro da economia da Grécia

[00:44:20] que escreveu o livro Tecnofeudalismo

[00:44:22] que é assim, isso que você acabou de afirmar

[00:44:25] chama capitalismo

[00:44:27] o Yuval Harari

[00:44:28] fala um negócio que eu acho muito legal

[00:44:30] que é o capitalismo é o sistema econômico

[00:44:33] que acredita que amanhã vai ser melhor do que hoje

[00:44:35] empresta dinheiro

[00:44:36] que eu vou pegar um navio

[00:44:38] vou do outro lado do mundo, vou trazer

[00:44:40] canela e cravo

[00:44:42] e eu vou te devolver o dinheiro

[00:44:44] e como dinheiro a mais

[00:44:45] na idade média, você tá maluco

[00:44:47] pra quê? o mundo vai acabar

[00:44:49] não sei o que, tá peste

[00:44:51] então o capitalismo ele é otimista

[00:44:53] e quando eu olho esse tipo de coisa

[00:44:56] demissões em massa

[00:44:58] e substituir pessoas

[00:45:00] por robôs

[00:45:01] aí eu vejo, caraca

[00:45:04] a gente tá voltando pra esse modelo pessimista

[00:45:06] de que não, o mundo está prestes a acabar

[00:45:08] e acabou galera, pesou o clima

[00:45:10] é brincadeira

[00:45:11] mas é maluco você falar isso

[00:45:12] mas tem um modelo do capitalismo

[00:45:15] que aposta na desgraça

[00:45:16] sei lá, a crise lá dos

[00:45:18] a crise imobiliária dos Estados Unidos

[00:45:20] foi a partir disso

[00:45:21] então o capitalismo achou meios até de

[00:45:24] lucrar até com o pessimismo

[00:45:27] é a camiseta do Che Guevara

[00:45:29] vendida na fábrica

[00:45:30] eu acho que assim, do mesmo jeito que as coisas se adaptam

[00:45:33] o capitalismo tem essa capacidade

[00:45:35] incrível de se

[00:45:36] ele é líquido, ele consegue

[00:45:39] se adaptar a qualquer condição

[00:45:40] de uma maneira que até é meio

[00:45:42] assustadora, porque aí parece assim

[00:45:44] não tem nada que você possa fazer, mas

[00:45:45] ao mesmo tempo

[00:45:47] as coisas, a complexidade

[00:45:49] do mundo é muito grande

[00:45:52] no sentido de que

[00:45:53] antes talvez fazer

[00:45:56] sei lá, fazer exercícios

[00:45:58] de mapeamento

[00:46:00] de cenário, de risco, de possibilidades

[00:46:02] hoje

[00:46:03] sei lá, tem um nível de complexidade

[00:46:06] que, não sei, eu acho

[00:46:08] que a gente tem

[00:46:10] muitas chances de dar ruim

[00:46:12] e a gente também tem

[00:46:15] possibilidades que estão fora

[00:46:17] do nosso radar, das coisas

[00:46:18] sei lá, não darem tão ruim quanto a gente está imaginando

[00:46:21] e darem ruim de outro jeito também

[00:46:22] mas que não é tão ruim

[00:46:23] covid é um exemplo assim

[00:46:26] a recessão, não, não, teve um vírus

[00:46:28] foi o vírus que sacudiu a economia muito mais

[00:46:31] do que qualquer outra coisa

[00:46:32] e tem uma outra história também nessa equação

[00:46:35] que eu inclusive acho que falei

[00:46:37] isso no tal post do LinkedIn

[00:46:38] que é o medo vende, então todo esse

[00:46:40] medo de

[00:46:42] você vai ficar pra trás, teve um estudo

[00:46:44] acho que da IBM

[00:46:45] que falou um percentual muito alto

[00:46:48] de executivos de empresas

[00:46:50] está implementando inteligência artificial

[00:46:52] pra não

[00:46:54] ficar pra trás, não está

[00:46:56] conseguindo medir, não está entendendo se está funcionando

[00:46:58] direito ou não e tal, mas

[00:47:00] eu vou botar, porque se não

[00:47:02] eu vou ficar pra trás. É porque o executivo recebe um papel

[00:47:04] do cara abaixo dele falando

[00:47:06] iniciativa implementada, gastei 10

[00:47:08] eu tinha 10 pra gastar e é isso.

[00:47:10] E aí, pô, é assim que o executivo trabalha, né?

[00:47:12] Isso, então esse medo, até disso tudo

[00:47:14] que a gente está falando, ah, vai fazer

[00:47:16] caramba, estou com medo

[00:47:18] e aí tem uma coisa que a gente

[00:47:20] já meio que falou daqui

[00:47:22] que é, a humanidade vai se adaptando

[00:47:24] até nos desastres, nos

[00:47:26] vulcões explodindo e tal

[00:47:28] então não é uma linha reta, é meio que o

[00:47:30] Taitiang fala também, não é inevitável

[00:47:32] cara, a gente vai

[00:47:34] se adaptar, a gente vai, sei lá

[00:47:36] botar a guilhotina na rua, se for o caso

[00:47:38] se a coisa chegar nesse

[00:47:40] ponto, então a glória

[00:47:42] a utopia suprema não é inevitável

[00:47:44] mas também a desgraça suprema não é inevitável

[00:47:46] então

[00:47:46] o meu otimismo, o pessimismo também está

[00:47:50] meio que do mesmo jeito que você

[00:47:51] é, se a gente não fizer nada vai dar ruim, mas

[00:47:53] calma a galera, e outra coisa

[00:47:56] também é

[00:47:56] pode demorar séculos, não precisa ser

[00:48:00] literalmente amanhã, então a gente tem

[00:48:02] que, a história acontece

[00:48:04] no dia a dia e a gente

[00:48:06] tem que, tipo, tem que

[00:48:08] entregar o episódio editado

[00:48:10] como resolveremos

[00:48:12] o problema do capitalismo, então as coisas

[00:48:14] acontecem em paralelo

[00:48:16] dito tudo isso, qual é o tipo

[00:48:18] de empresa

[00:48:19] você até falou, a galera

[00:48:22] me chama, consultoria, pergunta

[00:48:24] qual é o tipo de empresa

[00:48:25] que vai se dar bem

[00:48:28] do jeito que funciona, o que que

[00:48:29] vou usar a palavra muito

[00:48:31] youtuber de empreendedorismo

[00:48:34] DNA da empresa

[00:48:36] o que precisa ter no DNA da empresa

[00:48:38] pra ela se adaptar

[00:48:40] melhor a tudo isso que está vindo

[00:48:41] de A, porque de novo, na abertura

[00:48:43] do programa eu falei, falar de luto

[00:48:45] não, e tem gente usando IA pra resolver

[00:48:48] o luto, vou falar de página de meme

[00:48:49] tem gente usando IA pra reproduzir

[00:48:52] seu meme, então assim, a ferramenta

[00:48:54] está aí, a ferramenta existe

[00:48:55] no mercado de trabalho, você falou a história de

[00:48:57] fazer filmes, editar e tal

[00:48:59] qual tipo de empresa que você

[00:49:01] encontra por aí, está entendendo

[00:49:03] o jeito certo de usar e

[00:49:05] portanto, qual que está fazendo errado

[00:49:07] eu acho que esse lance

[00:49:10] essa pressão

[00:49:11] você der essa pressão de acionária

[00:49:14] sei lá, de acionista, de tipo, vou implementar

[00:49:16] IA, assim, acho que é esse tipo de coisa

[00:49:17] que contribui pra bolha que estão falando

[00:49:19] tipo, ah, vai ter bolha, primeiro que eu já vi uma matéria

[00:49:21] da BBC que foi bem interessante, porque traduziu uma coisa

[00:49:23] um pouco que eu estava pensando, assim, ah, porque é a bolha

[00:49:25] bolha, aí quando falam bolha, todo mundo acha que é

[00:49:27] que quer dizer a bolha, ah, isso

[00:49:29] aqui, essa revolução

[00:49:32] não é, na verdade, uma revolução

[00:49:33] aí você olha pra internet

[00:49:35] teve a bolha da internet? Teve

[00:49:37] mas a internet está aí

[00:49:38] mas a internet está aí

[00:49:40] o que acontece é que tinha um monte de gente

[00:49:42] tentando ganhar dinheiro com aquele negócio, naquele momento

[00:49:44] e aí vários morreram na praia

[00:49:46] e aí sobrou alguns e prosperaram

[00:49:48] e com a IA, eu acho que

[00:49:51] o que a galera fala de bolha é isso

[00:49:52] e aí a gente está falando de capitalista

[00:49:54] financeiro, tá ligado?

[00:49:56] gente que investe dinheiro

[00:49:57] o valor da ação da Nvidia pode estar mais alto

[00:50:00] do que deveria, não quer dizer que

[00:50:03] e as empresas estão investindo

[00:50:05] entre elas também, né

[00:50:06] então tem isso

[00:50:08] mas o que contribui pra essa bolha

[00:50:10] é justamente esse bando de gente

[00:50:11] fazendo coisa com IA sem entender o que significa

[00:50:14] sem ter ideia do que significa

[00:50:15] por isso que eu não gosto dessa coisa

[00:50:17] do now with AI

[00:50:19] o software que agora tem AI, como assim tem AI?

[00:50:22] o que isso significa? Ou tipo a galera falando

[00:50:23] não, porque o Copilot

[00:50:24] o Copilot, porra, é um…

[00:50:27] o Mico, você viu o Mico?

[00:50:29] o Copilot agora tem o… lembra do clip?

[00:50:32] lembro

[00:50:32] agora tem a versão clip do Copilot

[00:50:36] que é o Microsoft Copilot

[00:50:38] é o Mico

[00:50:39] é o Microsoft Copilot

[00:50:39] é o Microsoft Copilot

[00:50:40] é o Microsoft Copilot

[00:50:40] é o Mico

[00:50:40] é, não, pra mim é não

[00:50:44] é

[00:50:45] essa coisa do tipo, ah, porque agora tem AI aqui

[00:50:48] que vai salvar sua vida

[00:50:49] que todas as ferramentas fazem isso

[00:50:51] ninguém entende direito o que tá acontecendo

[00:50:52] ninguém sabe, assim, é muito louco pensar que

[00:50:55] ninguém sabe que 99,9%

[00:50:59] desses

[00:51:00] now with AI que estão implementados

[00:51:02] na plataforma, por exemplo, são

[00:51:03] outros motores, né, são LLMs externas

[00:51:06] ou é um

[00:51:08] chat GPT, ou é o Gipsy, ou é a

[00:51:09] Meta AI

[00:51:10] as pessoas não sabem disso

[00:51:11] elas não sabem que

[00:51:12] pra criar ferramentas com AI

[00:51:14] você precisa ter modelos de linguagem grandes

[00:51:16] que esses são muito caros de treinar

[00:51:17] você pode implementá-los em ferramentas menores

[00:51:19] as pessoas não sabem

[00:51:20] que isso significa que se você tiver

[00:51:23] cinco grandes modelos

[00:51:24] esses cinco grandes modelos vão meio que dominar

[00:51:27] tudo

[00:51:28] então por isso que é importante desenvolver outros modelos

[00:51:30] é por isso que é importante saber como essas ferramentas foram treinadas

[00:51:32] aí você tem um grande landscape

[00:51:34] do mundo que tá acontecendo

[00:51:37] por trás dos planos das pessoas

[00:51:38] não tem ideia das consequências, mas

[00:51:39] mais que isso, tomadores de decisão em grande escala

[00:51:42] não tem esse conhecimento, não tem ideia das consequências

[00:51:44] compram soluções

[00:51:45] sabe o que me irrita muito?

[00:51:47] sabe quando você quer achar um software pra algum

[00:51:50] não sei se deve fazer, tem, porque você não faz isso

[00:51:52] mas quando você trabalha em alguma empresa

[00:51:53] e você é tomador de decisão

[00:51:55] pelo menos no meu caso, que sou uma pessoa que sempre olhei pra tech

[00:51:57] e otimização de

[00:51:59] operação e tal, eu sou sempre a pessoa

[00:52:02] que vem e traz uma ferramenta pra resolver o problema

[00:52:03] e aí quando você vai fazer reunião

[00:52:06] com a equipe da ferramenta

[00:52:07] é aquela coisa

[00:52:09] não, essa nossa ferramenta, ela foi criada

[00:52:11] pra otimizar a percepção de valor junto aos

[00:52:13] shareholders, e ela fala

[00:52:15] você não tá entendendo, eu quero saber o que essa porra faz

[00:52:18] qual salsicha

[00:52:19] sai do outro lado

[00:52:20] muitas vezes a ferramenta vende pro executivo, ou seja

[00:52:23] ela vende o resultado dela

[00:52:25] mas ela não

[00:52:27] implica o que é o processo

[00:52:29] e ela embeleza isso, tudo isso é

[00:52:31] contribuir pra essa bolha

[00:52:32] o grande risco do que tá rolando agora

[00:52:35] é que a coisa tá avançando muito rápido

[00:52:37] e as pessoas

[00:52:39] não tão se formando

[00:52:41] adequadamente pra isso, porque

[00:52:43] um, é complexo, e as pessoas

[00:52:45] não entendem, dois, elas

[00:52:47] não tem formação, e três

[00:52:49] precisa ter formação constante, tipo

[00:52:51] essas conversas, as pessoas que tomam decisões

[00:52:53] que envolvem AI, precisam ter essas conversas

[00:52:55] sequentemente, porque as tecnologias

[00:52:56] a tecnologia tem recursos que surgem

[00:53:00] sei lá, features novos todos os dias

[00:53:01] que

[00:53:02] dilemas novos atravessam essas coisas todos os dias

[00:53:05] e aí o que você pensou ontem, hoje

[00:53:07] você precisa de um plus pra conseguir tomar aquela

[00:53:09] decisão, e assim

[00:53:11] ninguém faz isso, saca

[00:53:12] eu acho que é por isso que as pessoas me chamam

[00:53:15] pra falar de AI

[00:53:15] sim, deixando a modéstia

[00:53:19] embaixo da mesa agora

[00:53:21] é porque tem muitas coisas que

[00:53:23] mas elas não são tão, elas são meio óbvias

[00:53:25] mas é que as pessoas não, a gente não tem

[00:53:27] gente falando delas

[00:53:28] mas tem um bonus da rede inteira sobre falar o óbvio

[00:53:30] e tá tudo certo, óbvio pra gente

[00:53:33] eu tô me sentindo na novela Vale Tudo

[00:53:35] porque agora a gente vai

[00:53:37] aproveitar

[00:53:38] ah, é verdade

[00:53:39] fala do homo, essa sujeira

[00:53:42] embaixo da mesa

[00:53:42] então Cris, mas como eu tava te falando

[00:53:47] que as pessoas precisam continuar aprendendo

[00:53:49] elas não podem parar de aprender, cara

[00:53:52] quem estiver vendo em vídeo está vendo agora

[00:53:53] a Ana completamente vermelha

[00:53:55] não, porque a brincadeira é

[00:53:58] como é que é

[00:53:58] nossa Ana, parece até que a gente combinou

[00:54:02] que agora a gente vai falar de uma coisa aqui

[00:54:04] que foi exatamente o que a gente fez, a gente combinou

[00:54:05] a gente veio aqui, não, porque qual é a história

[00:54:07] contar pra vocês como a salsa

[00:54:09] foi feita, como o nosso raciocínio foi feito

[00:54:11] há bastante tempo

[00:54:13] a Ana já fez vários cursos, treinamentos

[00:54:15] mais aprofundados

[00:54:18] mais iniciantes e tal

[00:54:19] de inteligência artificial

[00:54:20] a gente vem conversando há muito tempo

[00:54:22] eu inclusive já fui chamado em algumas dessas dinâmicas de consultoria

[00:54:25] com a Ana, vem aqui ajudar o processo

[00:54:27] e aí a gente

[00:54:29] em algum ponto de 2025

[00:54:31] virou e falou assim, a gente precisa fazer um curso

[00:54:33] vamos fazer um curso, vamos

[00:54:35] e as pessoas pedem, né

[00:54:36] as pessoas pedem, claro, seu curso

[00:54:38] tal, gente

[00:54:39] de todos os tipos, todas as profissões

[00:54:41] eu fiz lives, acho que ano passado

[00:54:44] retrasado, fiz com a Rosana Herma

[00:54:46] e tal, e é isso, as pessoas têm

[00:54:48] essa necessidade

[00:54:49] aí a gente sentou e escreveu

[00:54:52] o curso

[00:54:53] e marcou o estúdio

[00:54:55] e era um curso bem aprofundado, deu um bom trabalho

[00:54:58] de fazer, e era um curso mega aprofundado

[00:55:00] que ia falar desde o conceito básico

[00:55:01] até prático

[00:55:04] ferramenta, geração de prompt, sei quem, sei lá

[00:55:05] aí a gente

[00:55:07] no dia da gravação

[00:55:09] desse curso, a gente ia passar o dia inteiro no estúdio

[00:55:11] o gato da Ana

[00:55:13] teve um problema de saúde

[00:55:14] a gente cancelou

[00:55:16] a gravação

[00:55:18] mas o Cris foi comigo no veterinário esse dia

[00:55:20] e fomos ao veterinário

[00:55:22] e aí a Ana entrou numa pira provavelmente afetada

[00:55:25] pela saúde do gato

[00:55:27] preocupação, ela falou assim

[00:55:28] não, não faz o menor sentido fazer curso

[00:55:31] porque já tá tudo desatualizado

[00:55:33] já lançou não sei o que

[00:55:35] porque a gente teve que remarcar pra sei lá quantas semanas depois

[00:55:37] e eu olhei e falei, não dá mais

[00:55:39] esse negócio aqui já tá velho

[00:55:40] eu gastei mó tempo fazendo isso, estou mó tempo pensando nisso

[00:55:43] e agora a gente vai ter que repensar pra gravar daqui duas semanas

[00:55:45] não dá

[00:55:45] e a gente vai lançar o curso

[00:55:47] e aí no fim do curso já

[00:55:49] aí eu falei, tá bom Ana, vamos lá

[00:55:51] o que a gente vai fazer

[00:55:52] então a gente

[00:55:54] veio aqui agora nessa parte do

[00:55:57] Bônus da Internet, então a gente veio

[00:55:59] não vender um curso

[00:56:00] cara, eu tô mais

[00:56:03] cada vez mais convencida que

[00:56:05] o que a gente precisa aprender

[00:56:07] pra se capacitar

[00:56:09] do jeito que eu considero

[00:56:11] certo pra esse

[00:56:12] mundo muito louco e pra trabalhar

[00:56:15] com AI, a gente precisa exercitar a capacidade

[00:56:17] de continuar aprendendo o tempo todo, saca

[00:56:19] e eu acho que isso vem

[00:56:21] de fábrica com algumas pessoas

[00:56:22] mas pra outras a gente

[00:56:25] e aí pra quem vem

[00:56:26] esse hábito é mais comum talvez

[00:56:28] eu acho que eu sou uma pessoa assim, eu acho que você também é

[00:56:31] mas nem todo mundo precisa ser

[00:56:33] mas a real é que exercitar

[00:56:35] esse hábito é fundamental e aí quando as pessoas

[00:56:37] vêm me procurar pra falar assim

[00:56:39] ah, você precisa dar um curso sobre AI

[00:56:41] ah, mas por onde você acha que tem que começar

[00:56:43] e eu falo, cara, não existe, eu não acredito mais

[00:56:45] eu falo isso até nas empresas que eu dou consultoria e dou treinamento

[00:56:48] agora, tipo, eu não ofereço mais treinamento pontual

[00:56:49] legal

[00:56:50] tipo, eu falo, ó, a proposta que eu vou te oferecer

[00:56:53] eu posso te oferecer um treinamento inicial

[00:56:55] ou essa que eu vou te oferecer é de um negócio continuado

[00:56:57] você vê, você quer, mas eu recomendo o continuado

[00:56:59] porque você vai voltar comigo depois

[00:57:01] porque primeiro tem o fluxo de como

[00:57:03] as pessoas implementam, aprendem e aí elas

[00:57:05] decantam a coisa e depois tem que voltar

[00:57:08] você vê, você tem o fluxo de como as pessoas

[00:57:09] segundo, porque hoje eu vou ensinar um workflow

[00:57:11] que vai ser outro mês que vem

[00:57:13] que vai ser outro no outro mês e daqui três meses

[00:57:15] tudo aquilo que eu ensinei já não vai ser o melhor jeito pra fazer

[00:57:17] depois tem as discussões

[00:57:19] e como elas vão se atualizando, saca?

[00:57:20] que é o que a gente tá fazendo aqui a uma hora

[00:57:22] exatamente, aí a gente falou, por que a gente não faz

[00:57:25] uma comunidade

[00:57:26] boa

[00:57:27] com recursos e com essas discussões

[00:57:31] on-going, mas que também a gente possa trazer

[00:57:33] recursos e atualizando sempre

[00:57:35] que tem, parabéns pra você

[00:57:37] que não fui eu, o melhor nome que é

[00:57:38] IA em curso, olha aí

[00:57:41] que não é um curso, mas chama IA em curso

[00:57:43] porque está em curso, estará sempre em curso

[00:57:44] é bom, pô

[00:57:46] com o subtítulo conhecimento, a prova de futuro

[00:57:48] essa foi eu, essa foi você

[00:57:50] não foi o chat de PT

[00:57:52] IA em curso, conhecimento, a prova de futuro

[00:57:55] seria muito mais fácil

[00:57:57] a gente fazer um curso, né, lançar lá

[00:57:59] seria, não, seria mais fácil

[00:58:01] da perspectiva de trabalho

[00:58:03] seria bem mais fácil

[00:58:03] porque é isso, gravou, a gente, aí, sei lá

[00:58:06] duas semanas depois a gente voltou pro estúdio, gravou

[00:58:08] passou o dia, foi quando eu fiz aqueles stories lá

[00:58:10] e pronto, ia estar gravado, ia estar publicado

[00:58:12] e daqui três vezes, galera

[00:58:13] novo lançamento, porque agora

[00:58:16] não, a gente não é picareta, a gente inclusive

[00:58:18] é péssimo vendedor, que vocês estão assistindo

[00:58:20] que até agora a gente não falou que dia que está acontecendo

[00:58:22] mas…

[00:58:23] então vamos lá, boa, o que que tem na IA em curso

[00:58:26] vamos encarnar o

[00:58:28] merchanzão

[00:58:29] a gente criou uma comunidade que tem

[00:58:32] mentoria quinzenal com a gente

[00:58:33] então é uma mentoria coletiva, a gente vai

[00:58:36] ligar uma câmera

[00:58:38] a gente vai

[00:58:40] discutir temas como esses

[00:58:42] mas a gente também vai trazer aplicações práticas

[00:58:44] como a gente usa no dia a dia

[00:58:46] e a gente faz isso muito

[00:58:47] contamos com as pessoas trazendo

[00:58:50] as delas também

[00:58:51] a ideia é também que

[00:58:54] as pessoas que participam dessa comunidade possam

[00:58:56] trazer os casos de uso

[00:58:58] delas e pedir orientações

[00:59:00] então a gente tem isso quinzenalmente

[00:59:01] eu não estou com a lista aqui, estou com a cola

[00:59:03] não, eu estou aqui, está a ponta linda

[00:59:05] a gente tem

[00:59:06] grupo

[00:59:08] no telegram com links comentados

[00:59:10] a ideia é pegar

[00:59:12] o que a gente lê e trazer para vocês as perspectivas

[00:59:14] que a gente tem, basicamente

[00:59:15] inclusive com um detetor de bullshit em cima da coisa que está vendo

[00:59:19] não, ninguém tem tempo, cara

[00:59:20] e assim, dá todo mundo desespero

[00:59:21] a pergunta que eu recebo é, mas qual que é a ferramenta que você falou?

[00:59:24] esquece, não precisa saber isso

[00:59:25] não tem problema

[00:59:27] o que a gente quer separar para você é o que você precisa saber

[00:59:30] para tomar decisões

[00:59:32] boas envolvendo o IA

[00:59:34] para ter certeza que você

[00:59:36] não é o papagaio que fica repetindo, você viu a nova ferramenta?

[00:59:38] do Google, não é isso que importa, tá ligado?

[00:59:41] não é essa a novidade que importa

[00:59:43] e também

[00:59:43] quando eu falo detetor de bullshit

[00:59:45] quando você contratar alguém para fazer

[00:59:48] você saber se aquela pessoa está te enrolando ou não

[00:59:51] está só jogando palavrinhas

[00:59:52] é saber gerenciar, tanto saber gerenciar

[00:59:54] IA, que é o que vai acontecer com todos nós, spoiler

[00:59:56] isso

[00:59:57] spoiler galera, todos nós vamos passar de

[01:00:00] executores de coisas a gestores

[01:00:02] de IA executando coisas

[01:00:05] assim, seja lá qual for

[01:00:06] o seu nível profissional

[01:00:08] é isso que vai acontecer, só que para fazer isso bem

[01:00:10] tem um monte de coisa que você precisa entender

[01:00:12] então a gente acha que

[01:00:14] e essas coisas que você precisa entender, elas vão mudando

[01:00:16] o tempo todo, então a gente precisa permanecer discutindo elas

[01:00:18] então a gente

[01:00:19] tem uma comunidade, a gente tem a

[01:00:22] mentoria quinzenal, a gente tem

[01:00:24] prompts para você usar como modelo

[01:00:26] para primeiro entender o racional, esses prompts

[01:00:28] ajudam você a ser um melhor produtor

[01:00:30] de agentes, porque prompts nada mais são do que agentes

[01:00:32] legal, informar de prompt

[01:00:33] você tem agentes prontos, que a gente também vai

[01:00:36] atualizar sempre

[01:00:38] você tem

[01:00:39] bônus?

[01:00:41] tem bônus, que foi o que a gente foi gravar aquele dia

[01:00:44] a gente foi gravar, é, é verdade

[01:00:45] tem um curso, tá bom galera, tem um curso

[01:00:47] o curso é um curso introdutório, para colocar todo mundo na mesma página

[01:00:50] sobre o mínimo que você tem que saber sobre AI

[01:00:52] para não ser um idiota

[01:00:53] isso, como é que é o nome, tudo que você precisa saber

[01:00:55] para usar a inteligência artificial sem passar vergonha

[01:00:58] isso, uma vacina anti-vergonha

[01:01:00] a gente ia usar, né, sem ser um idiota, mas a gente achou que era um nome de livro

[01:01:02] muito Lava de Carvalho

[01:01:03] aí falamos, não, não vai, vai ser

[01:01:06] sem passar vergonha

[01:01:07] tem ebook?

[01:01:08] é, com metodologia de

[01:01:10] metodologia criativa de uso de AI

[01:01:12] e outras coisas, e coisas, assim, sistematização

[01:01:14] do nosso conhecimento e tal, em formatos diferentes

[01:01:17] até porque, ah, não consegui ir na mentoria

[01:01:19] e tal, beleza, tá tudo lá documentado

[01:01:21] isso, pra você conseguir acompanhar

[01:01:23] e tem

[01:01:24] essa aqui, eu não sei se é só a favor não, hein

[01:01:27] desconto exclusivo em todos

[01:01:28] os cursos que o Cris e a Ana lançarem

[01:01:30] é, se a gente fizer, como assim?

[01:01:32] se a gente fizer qualquer outra coisa, que não seja o AI em curso

[01:01:35] apresenta show

[01:01:36] desconto, só que é desconto só que quem tá

[01:01:38] na comunidade tem, ah, fiz um outro bagulho

[01:01:40] desconto, a gente, é, é isso

[01:01:42] enquanto você fizer parte da comunidade, você vai ter desconto

[01:01:44] nas outras coisas que a gente fizer

[01:01:45] que não são o AI em curso, a gente faz muitas coisas

[01:01:48] então isso aí é o que?

[01:01:50] 10 mil reais por mês?

[01:01:51] 800 reais por mês, é mentira

[01:01:53] é o seguinte, a gente

[01:01:55] pensou muito, né, sobre como é que

[01:01:58] na verdade, assim, é, é, a gente

[01:01:59] acha que

[01:02:01] isso vai acontecer

[01:02:04] mês a mês e você vai continuar ali, mas você pode cancelar

[01:02:06] a hora que você quiser

[01:02:07] se você

[01:02:08] assinar

[01:02:09] agora

[01:02:09] vai aparecer embaixo da tela o negócio de leilão, né

[01:02:13] não, essa semana, essa semana é 49

[01:02:16] 49, enquanto você estiver

[01:02:18] na comunidade, você vai pagar 49 mensal, não é que vai ser

[01:02:20] 49 no primeiro mês, 49 no segundo mês

[01:02:23] garantiu, travou o preço

[01:02:24] se você sair, vou votar depois

[01:02:26] aí você vai votar no preço que tiver

[01:02:27] mas, mesmo se a gente aumentar

[01:02:29] aumentamos depois, vai aumentar

[01:02:32] você entrou 49, você vai continuar

[01:02:34] 49, não importa

[01:02:35] é, eu vou, de novo, contar o teu bastidor aqui

[01:02:37] eu acho que tá muito barato

[01:02:39] tá barato mesmo

[01:02:40] a quantidade de coisa que a gente tá oferecendo

[01:02:42] então, eu vou ficar enchendo o saco da Ana

[01:02:45] ele ficou bolado mesmo, eu não tô zoando, a gente não tá inventando

[01:02:47] não tá inventando

[01:02:47] não, Cris

[01:02:50] assim, em algum momento eu vou convencer a Ana

[01:02:53] pelo cansaço que seja, aumentar o preço

[01:02:55] então, trava o preço

[01:02:57] logo agora, nessa semana

[01:02:58] é isso, tipo, a ideia é, a gente sabe que tem gente que segue

[01:03:01] a gente há muito tempo, tipo, eu falei

[01:03:03] do Cris nos primórdios da internet

[01:03:05] e eu sei que tem gente que me segue também

[01:03:07] desde o início da semana, desde o início da semana

[01:03:07] desde 2002

[01:03:08] é, a real é que

[01:03:11] é com vocês que a gente tá falando

[01:03:13] segurem esse preço por 49

[01:03:15] e, porque tudo que a gente fizer sobre A

[01:03:17] vai tá lá, dentro do IA em curso

[01:03:19] não tudo que a gente fizer sobre A, porque eu faço

[01:03:21] um monte de coisa sobre A, dou aula pra empresa, mas assim

[01:03:23] a gente vai, todo conhecimento

[01:03:25] que a gente for produzir sobre A, vai tá lá

[01:03:27] e eu garanto que na empresa você não cobra 49,90

[01:03:30] não tem nada que eu faça

[01:03:31] pra nenhuma, não tem nenhum outro trabalho

[01:03:33] que eu cobre 49,90 de ninguém

[01:03:35] é isso, e vai tá, esse conhecimento vai tá lá

[01:03:37] e o mais importante, é uma palavra

[01:03:39] que a gente usa muito na Ampere e tal, que é

[01:03:41] comunidade, mas que é isso, que não é a gente

[01:03:43] falando pra uma câmera, inclusive que nem a gente tá

[01:03:45] fazendo aqui, é uma coisa que

[01:03:47] se não tiver a troca, não acontece

[01:03:49] se não tiver o, as pessoas

[01:03:51] trazendo seus problemas, as suas dúvidas, os seus

[01:03:53] medos, e é um ambiente fechado

[01:03:55] então assim, ah, tô com medo de perder

[01:03:57] meu emprego, é o lugar pra gente falar isso

[01:03:59] pra gente trocar essa ideia

[01:04:01] tanto no grupo, quanto nas

[01:04:03] mentorias. É, eu acho que é uma coisa assim

[01:04:05] tipo, se você acha, tem muita gente

[01:04:07] que me procura, querendo começar, mas não sabendo

[01:04:09] muito bem por onde, tipo, a gente

[01:04:11] fez um negócio pensado nisso

[01:04:13] a gente fez um negócio pensado em gente que

[01:04:15] acha que é tão importante quanto

[01:04:17] aprender a usar AI, é saber falar

[01:04:19] sobre AI, saber pensar AI, a gente fez

[01:04:21] um negócio pra quem é decisor

[01:04:23] do próprio negócio

[01:04:26] ou em outras, né, da empresa

[01:04:28] e tá se sentindo um pouco

[01:04:29] perdido na hora de tomar decisões que envolvem

[01:04:31] AI, as decisões cada vez mais vão envolver AI

[01:04:33] esse é meio racional, das coisas

[01:04:35] que a gente vai colocar lá, pra conseguir

[01:04:37] ajudar essas

[01:04:39] dores, essas dúvidas das pessoas, essas

[01:04:41] dificuldades, porque a gente

[01:04:42] é isso, tem vários cursos por aí, inclusive

[01:04:45] tem o próprio Cria, que eu participei

[01:04:47] que faz uma coisa muito massa, que tem

[01:04:49] um outro perfil, é mais criativa, é mais

[01:04:51] pra galera que faz vídeo e tal, e tá lá, e faz sentido

[01:04:54] o Cria também tem uma lógica

[01:04:55] continuada, porque eles também entendem isso

[01:04:57] mas aqui, a gente tá falando de uma

[01:04:59] outra pegada, uma pegada de

[01:05:01] você que entende que isso vai fazer

[01:05:03] parte da sua vida a partir de agora, manja

[01:05:05] não só, né, não de uma perspectiva

[01:05:07] especializada dentro da AI, que também tem sua função, tá

[01:05:09] mas

[01:05:11] você entende que isso vai fazer parte da sua vida a partir de agora

[01:05:13] você quer pensar sobre isso também

[01:05:15] você quer usar, e a gente vai te ensinar a usar melhor

[01:05:18] extrair o melhor disso, mas você

[01:05:19] quer pensar sobre isso também. É, nesse curso

[01:05:21] tudo que você precisa saber pra não passar

[01:05:23] vergonha, a gente fala de prompt

[01:05:25] a gente abre ferramenta, joga na tela a ferramenta

[01:05:28] faz prompt, mostra, compara

[01:05:30] até a gente falar, ah, qual ferramenta

[01:05:32] é melhor? Bom, nesse momento aqui, essa ferramenta

[01:05:33] tá fazendo eu, você abre, ah

[01:05:35] eu uso mais essa aqui, você mostra

[01:05:37] até telas que vão precisar ser

[01:05:40] borradas com informações

[01:05:42] ali e tal, então assim, a gente

[01:05:43] a gente vai na prática, a gente entra

[01:05:45] no detalhe, mas é isso

[01:05:47] esse formato de comunidade

[01:05:50] é justamente pra gente conseguir

[01:05:51] ter essa prática

[01:05:53] sem essa preocupação de, ah, não vou também

[01:05:55] entrar aqui no detalhe, porque amanhã sai o

[01:05:57] GPT-6. Ah, e tem aulinha também, tá

[01:05:59] a gente vai gravar tutoriaizinhos

[01:06:01] também aí ao longo das semanas

[01:06:03] outra coisa que faz parte da, você vai ter acesso a esses

[01:06:05] tutoriaizinhos, então, pô, hoje eu testei

[01:06:07] o Atlas, o novo navegador

[01:06:09] do chat do GPT, e

[01:06:11] já entendi uns usos ali massa

[01:06:13] e isso é uma coisa que sim, eu fiz

[01:06:15] é mais difícil pra mim

[01:06:17] produzir conteúdo pra rede social, porque conteúdo pra rede social

[01:06:19] demanda um pensamento

[01:06:21] maior, mas eu poderia muito facilmente

[01:06:23] isso já dá pra virar uma aula

[01:06:25] vou gravar essa aula já pra gente colocar

[01:06:26] e sabe o que também não tem

[01:06:29] nesse, no IA em curso

[01:06:31] conhecimento à prova de futuro?

[01:06:33] fórmula de lançamento, marketing digital, o que é

[01:06:35] mas, ah, entra no grupo de WhatsApp

[01:06:37] não tem, qual é o URL e o site

[01:06:39] que a pessoa acessa?

[01:06:41] anacronia.com.br

[01:06:42] barra IA em curso, porque Anacronia? Anacronia é o nome

[01:06:45] do meu perfil de IA, se você não me segue, me segue lá

[01:06:47] instagram.com.br

[01:06:49] anacron.ia, lá vai ter o link também

[01:06:51] esse link. Isso, vai ter na descrição do post, vai ter no

[01:06:53] meu Instagram, vai ter no…

[01:06:55] Mas a gente não vai fazer assim, ah, não tem forma de lançamento

[01:06:58] não tem, assim, a gente

[01:06:59] não quer, isso dá trabalho e também

[01:07:01] isso fica criando, assim, não

[01:07:03] a gente fez um negócio que a gente acha que é legal, que a gente acha que

[01:07:05] realmente pode ajudar as pessoas que estão

[01:07:07] tendo cabeça com isso, e a gente vai

[01:07:09] colocar lá a venda pra vocês

[01:07:11] e vocês assinam

[01:07:13] a gente acha que vocês vão gostar, se vocês não gostarem

[01:07:15] vocês podem cancelar a qualquer hora, porque é uma assinatura

[01:07:17] não tem, como é que chama?

[01:07:19] Fidelização? Não tem fidelização, não tem

[01:07:21] multa, tem nada

[01:07:23] é tipo, assinou, mês vigente

[01:07:26] tá lá

[01:07:27] ah, tô sem grana

[01:07:29] você sai, aí depois você volta, beleza

[01:07:31] é isso. Muito bem, repeta

[01:07:33] repeta

[01:07:33] repeta

[01:07:34] repeta o site

[01:07:37] www.anacronia.com.br

[01:07:42] barra, e há em curso

[01:07:43] muito bem, e aí, pra terminar

[01:07:45] pra dar ufa

[01:07:46] ser um pouquinho marketing, a gente tava na brincadeira

[01:07:48] tem uma coisa que eu tava revendo hoje

[01:07:50] lá, as coisas que a gente gravou, que são os 5 F’s

[01:07:53] os 5 F’s

[01:07:54] dá uma mostrinha pras pessoas

[01:07:57] do tipo de coisa que a gente tá falando

[01:07:59] porque que você criou

[01:08:00] essa coisa, esse coiso

[01:08:02] esse penso, eu tô vendo

[01:08:04] cada vez mais pessoas usando a palavra penso

[01:08:06] qual o seu penso

[01:08:08] dos 5 F’s

[01:08:10] pra mim é não

[01:08:10] no Apresentar Show, tem os 3, 6

[01:08:14] que é a apresentação, ela tem que estar organizada em

[01:08:16] contexto, conflito e conclusão

[01:08:18] aí, na hora das perguntas, alguém fala assim

[01:08:20] ah, é como introdução

[01:08:22] desenvolvimento

[01:08:24] e não sei o que, é, mas aí não dá pra ser

[01:08:26] 3, 6 bonitinhos, né, mas é exatamente

[01:08:28] isso que você falou, então quais são os 5 F’s?

[01:08:30] cara, 5 F’s

[01:08:32] é o seguinte, eu dei aula de AI, já dou aula de AI

[01:08:34] há mais de 2 anos

[01:08:36] e aí

[01:08:36] acabei desenvolvendo um monte de metodologia

[01:08:38] pra ensinar as coisas pras pessoas, né

[01:08:39] só que eu sou ruim de nome

[01:08:41] é isso que você falou, a IA me ajudou a criar nomes

[01:08:44] massa pras minhas metodologias, entendeu

[01:08:46] tipo, pegar, explicar a metodologia e aí

[01:08:47] e aí, assim, o F é uma metodologia

[01:08:50] que eu batizei

[01:08:52] uma metodologia que eu criei e assim está batizada

[01:08:53] que serve pra fazer promptes

[01:08:56] pra criar

[01:08:58] coisas, né, em texto

[01:08:59] então são promptes de criação de texto

[01:09:02] de escrever coisas, né, texto, artigo

[01:09:04] apresentação, roteiro, carrossel, vale pra todos

[01:09:06] assim

[01:09:06] e aí na aula, quando você fala disso

[01:09:08] você traz um exemplo prático de um post seu que bombou

[01:09:11] no Instagram da Anacronia

[01:09:13] sim, foi um post sobre o

[01:09:15] Deep Seek, cara, que eu escrevi usando IA

[01:09:18] assim, quando eu falo escrevi usando IA

[01:09:19] é que, eu sempre falo isso

[01:09:21] nas aulas, mas é

[01:09:22] pra mim escrever usando IA significa que eu escrevi

[01:09:25] 70% do texto

[01:09:27] quando ele, aí a fez, ele estava

[01:09:29] 70% pronto, né

[01:09:30] tem 30% ali que eu precisei ajustar

[01:09:33] refazer, reescrever, enfim, editar

[01:09:36] mas os 5 F’s, né, eu escrevi 70% pronto, né

[01:09:36] mas os 5 F’s, né, eu precisei ajustar, refazer, reescrever, enfim, editar

[01:09:36] mas os 5 F’s é

[01:09:37] formato, fluxo narrativo, a fala

[01:09:40] os fatos

[01:09:41] e a fonte

[01:09:43] deu 5?

[01:09:44] e a gente, no curso, inclusive pega esse post

[01:09:48] do Deep Seek e vai

[01:09:49] debulhando como você usou cada F

[01:09:52] e aí só pra dar um spoiler, mas assim

[01:09:54] a ideia é que as pessoas vão escrever com IA

[01:09:56] aí às vezes elas pedem direto, né

[01:09:58] faz um texto sobre isso e aquilo, que tende a ficar

[01:10:00] ruim, aí às vezes elas fatiam um pouco mais

[01:10:02] então elas trazem as referências, faz um texto sobre isso

[01:10:04] com base nesse outro artigo

[01:10:06] pode ficar um pouco melhor, mas eu defendo

[01:10:08] que pra você escrever direito com IA, você precisa

[01:10:10] na verdade pra qualquer tarefa, tá?

[01:10:12] mas esse é outro spoiler

[01:10:13] você precisa

[01:10:15] dividir em etapas o seu trabalho

[01:10:18] e pra cada etapa usar IA

[01:10:20] e chegar no resultado, validar aquele resultado, colocar

[01:10:22] sua mão ali e aí passar pra próxima, né

[01:10:24] então

[01:10:25] a ideia aqui é que você explore cada uma dessas

[01:10:28] etapas um pouco com IA pra chegar no ideal

[01:10:30] e aí vá meio que

[01:10:31] somando os tijolinhos pra chegar no resultado final

[01:10:34] então formato

[01:10:34] o fluxo

[01:10:36] o fluxo narrativo

[01:10:37] e aí quando eu falo de fluxo narrativo

[01:10:40] fala

[01:10:40] fatos e fontes

[01:10:43] todas essas coisas elas vêm de você, assim

[01:10:45] então as pessoas ficam com medo, né

[01:10:47] ah, mas vou usar IA e vai ter plágio

[01:10:49] se você seguir o 5F direito

[01:10:51] é impossível que seja plágio, porque você tá

[01:10:53] tudo que você tá colocando ali é seu

[01:10:55] você colocou a parte mais importante que é o seu ponto de vista

[01:10:58] seu insight, inclusive a decisão

[01:11:00] de falar sobre aquele assunto

[01:11:01] isso, a máquina

[01:11:03] por definição não tem como você fazer

[01:11:06] pode fazer, mas é uma decisão baseada em quê, né

[01:11:08] não, não vou falar isso, vou falar sobre o Deep Seek

[01:11:10] ou sobre, sei lá, choveu hoje

[01:11:12] então assim, é simples de decisão

[01:11:14] então, essa é uma metodologia

[01:11:16] que eu falo, enfim, né

[01:11:18] no curso bônus ali, mas que vai

[01:11:20] aparecer também no ebook, que a gente pode

[01:11:22] mencionar em outros casos, eu tenho outras metodologias de prompt

[01:11:24] que eu acabei desenvolvendo ao longo do tempo pra outros propósitos

[01:11:26] até metodologia de prompt pra imagem

[01:11:28] metodologia de prompt pra vídeo

[01:11:30] eu não sou uma pessoa de visual

[01:11:32] pra mim é difícil fazer imagem e vídeo

[01:11:34] mas pelo menos

[01:11:36] se você tem a metodologia de prompt

[01:11:37] você consegue minimamente navegar, assim

[01:11:40] sabe, pegar as referências

[01:11:41] então tudo isso

[01:11:42] cara, tem muita coisa, é que a gente perde a noção

[01:11:46] eu não sei se você, quando eu dou essa entrevista

[01:11:48] de cinco minutos pra qualquer lugar

[01:11:49] as pessoas falam, nossa, você devia fazer uma aula sobre isso

[01:11:51] eu falo, gente, entendi

[01:11:53] é preciso mesmo, é muita coisa

[01:11:55] é muito repertório, tudo isso vai virar repertório lá dentro

[01:11:58] basicamente

[01:11:58] então tá, última vez, anacronia.com.br

[01:12:02] barra, e aí em curso

[01:12:04] 20 reais de descrição

[01:12:06] 20 reais de desconto vitalício

[01:12:07] vitalício não, né, enquanto você estiver vivo

[01:12:09] mas enquanto você for membralício

[01:12:11] 20 reais de desconto

[01:12:14] membralício enquanto você for membro

[01:12:16] se você assinar essa semana

[01:12:17] 49, em vez de 69

[01:12:19] ele vai me convencer

[01:12:22] porque afinal, mal pra mim não faz

[01:12:24] mas assim, vai demorar um pouco

[01:12:26] o primeiro boleto, chegar o plano de saúde lá

[01:12:28] é lá, Cris, vamos, vamos

[01:12:29] deixa o meu gato ficar doente de novo, talvez eu não aumente

[01:12:31] Ana, muito obrigado por vir no Boa Noite Terra

[01:12:34] por ter essa conversa comigo

[01:12:36] amei-me sempre

[01:12:36] espero que você tenha curtido

[01:12:38] e fala a sua agenda

[01:12:41] arroba anacronia

[01:12:42] faz sua agenda, dia 12 eu vou estar em Santo André

[01:12:45] desvirtuou completamente

[01:12:47] feira da uva

[01:12:50] anacronia é o principal

[01:12:51] anacron.ia

[01:12:53] no instagram

[01:12:54] tem o anabsf também no instagram

[01:12:57] que é o meu perfil pessoal de memes

[01:12:59] você pode ver meus memes lá, mas assim, eu recomendo os dois

[01:13:01] é assim, qual que é a melhor IA

[01:13:04] pra tal coisa, não é assim

[01:13:05] qual que é o melhor

[01:13:06] o meu melhor instagram, não é, depende do que você quer

[01:13:07] não, vocês são proibidos de seguir o perfil de memes

[01:13:10] da Ana no instagram

[01:13:11] porque eu roubo muito meme que ela posta pra botar nos meus stories

[01:13:13] ah, eles vão desvendar

[01:13:15] que eu não, eu não, só

[01:13:17] suquita, anamarão

[01:13:19] a faz da marão é boa

[01:13:21] curadora de meme também

[01:13:22] são os três, e ela ainda manda os do privado

[01:13:26] mas ela é minha coach também

[01:13:28] ela manda no privado

[01:13:29] e aí eu boto lá

[01:13:31] então não sigam a Ana

[01:13:33] é isso, cara

[01:13:36] valeu, até a próxima, boa noite da noite