top of page

SXSW EDU Download

  • Foto do escritor: Paulo Dantas
    Paulo Dantas
  • há 18 horas
  • 9 min de leitura

Na semana passada, em Austin, passei quatro dias imerso em sessões, painéis e conversas no SXSW EDU que, juntos, contaram uma única história — uma que qualquer pessoa que trabalha com educação ou com publicação de materiais educacionais precisa ouvir. A história não é sobre se a IA pertence ou não às escolas. Esse debate já acabou. A IA já está lá — sem convite, sem regulamentação, profundamente incorporada ao cotidiano de alunos que a utilizam para tudo, de resumir livros didáticos a processar suas próprias emoções.



A verdadeira questão, e aquela para a qual o SXSW EDU não parava de voltar, é bem mais desconfortável: o que acontece com uma geração que nunca aprende a enfrentar dificuldades?


Trabalho com produção editorial para o mercado educacional e desenvolvimento de professores. Passo meus dias pensando em como o conteúdo chega ao aluno — diagramação, estrutura, sequenciamento, o ofício de transformar uma intenção pedagógica em um produto físico ou digital. Fui a Austin em busca de clareza sobre onde a IA se encaixa nessa cadeia. O que encontrei, em vez disso, foi um conjunto de argumentos que desafia algumas premissas sob as quais nossa indústria tem operado silenciosamente.


Conexão antes de conteúdo


A palestra de abertura trouxe um tom inesperado para uma agenda dominada pela IA. Monica J. Sutton, criadora do Circle Time with Ms. Monica, subiu ao palco não para falar de tecnologia, mas de conexão. Sua história começou numa calçada no Queens, em Nova York — uma menina de cinco anos e seu irmão de nove esperando um ônibus urbano, e uma professora de jardim de infância que escolhia caminhar com eles até o ponto todos os dias, empurrando sua bicicleta ao lado, simplesmente porque entendia que crianças precisam ser vistas.


Quando a pandemia chegou em 2020, Sutton transformou seu canal no YouTube em uma sala de aula virtual para a primeira infância. Alcançou mais de 1,2 milhão de famílias no mundo inteiro. Mas a lição que ela tirou dessa experiência não era sobre o poder do alcance digital — era sobre o que fazia aquilo funcionar: acolhimento, previsibilidade, contato visual através de uma lente, a estrutura de uma canção. A tecnologia era o veículo de entrega. A conexão era o produto.


Ela deixou a plateia com um framework de quatro perguntas ao qual voltei durante toda a conferência: Isso respeita como crianças pequenas aprendem? Isso apoia como elas crescem? Isso as ajuda a prosperar? Isso protege a curiosidade e a conexão? Perguntas simples — mas tente aplicá-las honestamente a um pitch típico de edtech, ou, já que estamos sendo francos, a um briefing editorial que prioriza velocidade de entrega em vez de integridade pedagógica. Aplicativos, plataformas e — sejamos honestos — materiais publicados demais são construídos sobre a premissa de que podemos acelerar ou encurtar o desenvolvimento. Não podemos. Só podemos apoiá-lo.


O custo de tirar a parte difícil


Em outra palestra, a psicóloga de Yale Dra. Laurie Santos e Bruce Reed, da Common Sense Media, conectaram os pontos entre redes sociais, companheiros de IA e uma crise de saúde mental que não está mais emergindo — já chegou.

Reed compartilhou dados que deveriam fazer qualquer um parar: adolescentes passam cerca de quatro horas e meia por dia no celular, pegam o aparelho umas cem vezes e recebem mais de duzentas notificações ao longo do dia. Dois terços dizem que dormem mal com frequência por causa disso. A Common Sense Media declarou os chatbots companheiros de IA como um risco inaceitável para menores de 18 anos. Sua pesquisa — Talk, Trust, and Trade-Offs, publicada no ano passado — revelou que quase três em cada quatro adolescentes já usaram companheiros de IA, e metade os usa regularmente. Um terço preferiu um chatbot de IA a um ser humano para conversas sérias. Essas plataformas são projetadas para dizer ao usuário o que ele quer ouvir, e quando adolescentes estão desenvolvendo seus músculos sociais sendo concordados o tempo todo, as consequências se espalham: menor resiliência, menor capacidade de receber feedback e, nos casos mais trágicos, autolesão.


Mas Santos levou a conversa para um território que me atingiu mais de perto. Ela construiu um argumento contundente sobre a relação entre esforço e felicidade, citando o que o psicólogo Mikey Ainslie chama de "paradoxo do esforço" — evitamos instintivamente o trabalho difícil, e no entanto o trabalho difícil é uma das fontes mais confiáveis de sentido e satisfação. O efeito IKEA, o conceito de flow, o fenômeno evolutivo da contrafreeloading — as evidências são avassaladoras de que organismos, incluindo seres humanos, preferem recompensas pelas quais trabalharam.


O argumento dela foi claro: quando terceirizamos trabalho cognitivo para a IA — escrita, resolução de problemas, até o desconforto de encarar uma página em branco — não estamos apenas perdendo uma habilidade. Estamos perdendo uma fonte de bem-estar. E isso vira um ciclo vicioso. Pule a dificuldade em setembro e, em dezembro, o limiar de esforço terá caído ainda mais.

É aqui que acho que nós, do mercado editorial educacional, precisamos ficar com esse incômodo por mais tempo do que gostaríamos. Há um movimento generalizado na indústria para tornar materiais de aprendizagem mais "acessíveis", mais "sem atrito", mais "personalizados" — e muito disso é trabalho genuinamente bom. Mas a pesquisa de Santos levanta uma pergunta incômoda: em que ponto remover o atrito de uma experiência de aprendizagem remove a própria aprendizagem? Se a luta cognitiva é onde tanto a habilidade quanto a satisfação se constroem, então cada decisão de design que tomamos sobre quão fácil ou difícil deve ser o caminho do aluno pelo nosso conteúdo é também uma decisão sobre o seu desenvolvimento. Não dá para terceirizar isso a um algoritmo e chamar de personalização.


Neste mês, a Common Sense Media lançou Generation AI, uma nova pesquisa nacional com crianças e famílias. Os dados confirmam o que Santos e Reed argumentaram no palco: 71% dos pais e 60% dos próprios adolescentes concordam que, quando as crianças de hoje forem adultas, as pessoas serão tão dependentes de IA que não conseguirão funcionar sem ela. Ambos os lados concordam (83% cada) que crianças precisam aprender a pensar criticamente sem ferramentas de IA. Mas eis a fratura geracional: 52% dos pais dizem que usar IA no trabalho escolar é antiético; 52% dos adolescentes dizem que deveria ser incentivado. Concordam sobre o problema. Discordam completamente sobre a solução.



O professor como variável irredutível


De todas as sessões a que assisti, a mais ancorada na prática foi a palestra de Adeel Khan, fundador e CEO da MagicSchool AI, em conversa com Martha Salazar-Zamora, uma superintendente veterana do Texas. Khan é ex-professor e ex-diretor de escola, e sua credibilidade no palco não veio de slides de pitch, mas de experiência vivida — ele certa vez construiu um currículo inteiro de história mundial para o sétimo ano garimpando materiais de um livro empoeirado numa prateleira de sala de aula e do que conseguiu encontrar de graça na internet.

Essa história deveria atingir de formas diferentes, dependendo de quem você é. Se você é professor, reconhece na hora — é a sua vida. Se você trabalha com publicação, é uma história de fracasso. Significa que, em algum lugar, a cadeia de conteúdo não chegou àquela sala de aula. Um professor foi deixado para improvisar não porque queria, mas porque os materiais não existiam, não eram acessíveis financeiramente ou não serviam para o propósito. A IA agora está preenchendo essa lacuna em velocidade. A pergunta para as editoras é se isso é um alerta ou uma concessão.


O argumento central de Khan é que o verdadeiro poder da IA nas escolas não é a automação — é a amplificação. Professores usando a MagicSchool como parceiro de pensamento para planejamento de aulas, comunicação com pais, instrução diferenciada. Um professor em primeiro ano de carreira que recebe uma ligação de um pai irritado e consegue entrar preparado em vez de pego de surpresa. Um aluno que entrega uma redação e recebe feedback alinhado à rubrica instantaneamente, exatamente quando o raciocínio ainda está fresco — não três dias depois, quando o momento já passou. Ele citou um caso em Aurora, Colorado, onde esse tipo de feedback imediato levou a uma melhora de 28% nas notas de redação dos alunos.


Mas o que mais me chamou a atenção foi o que Khan disse que a MagicSchool errou. Eles haviam criado um personagem simpático de chatbot para os alunos e recentemente tiveram que voltar atrás, removendo o personagem inteiramente. O motivo: evidências crescentes de que qualquer risco de antropomorfizar a IA em ferramentas voltadas para alunos — qualquer sugestão de companheirismo — é uma linha que eles não estão mais dispostos a cruzar. Esse tipo de autocorreção é raro em edtech, e importa. É também o tipo de decisão que editoras, à medida que integram IA em produtos digitais voltados para alunos, terão cada vez mais que tomar.


Salazar-Zamora complementou com a perspectiva institucional. No Tomball ISD, eles realizam um simpósio anual sobre IA — agora em sua terceira edição — pensado não apenas para capacitar educadores, mas para trazer pais, membros do conselho e stakeholders da comunidade para a conversa. Seu mantra: "ir devagar para ir rápido." Não é uma abordagem sexy, mas é a que constrói confiança.


A visão global: riscos ainda superam os benefícios previstos


A sessão que amarrou tudo para mim foi um painel na programação do último dia. Rebecca Winthrop, da Brookings Institution, apresentou os achados de um novo e extenso relatório — A New Direction for Students in an AI World: Prosper, Prepare, Protect — com dados de 50 países, centenas de estudos e conversas com 500 alunos e professores.


Sua conclusão foi direta: como a IA está atualmente implementada e implantada na educação, os riscos superam os benefícios. Os benefícios são reais — IA embutida em realidade virtual, tecnologia assistiva para alunos neurodivergentes, professores afegãos da diáspora usando IA generativa para criar mini-aulas via WhatsApp para meninas banidas da escola pelo Talibã. Mas esses são casos de uso estreito, intencional, guiado por educadores. O uso amplo de IA — crianças interagindo livremente com chatbots e companheiros de IA que não foram projetados nem para aprendizagem nem para crianças — é uma história completamente diferente. Ele diminui a aprendizagem, estreita a criatividade (ela citou um estudo impactante mostrando que candidatos a universidades que escreveram com IA convergiram para as mesmas ideias, enquanto os que escreveram sem IA produziram pensamentos muito mais diversos) e corrói as relações de confiança que estão no centro de como a aprendizagem realmente acontece.


O framework de Winthrop sobre modos de engajamento dos alunos — resistentes, passageiros, realizadores e exploradores — foi talvez o modelo mental mais útil que encontrei durante toda a semana. Exploradores são os alunos onde curiosidade encontra motivação; eles se tornam imparáveis, valorizam a jornada e são resilientes quando as coisas dão errado. O que preocupa Winthrop é que o uso descontrolado de IA está criando uma geração de passageiros — alunos que aparecem, se viram e nunca se engajam de verdade. Cerca de metade dos alunos do ensino fundamental II e médio já se identificam no modo passageiro. Menos de 4% se veem como exploradores.


O painel — que incluiu Miriam Schneider, do Google DeepMind, Maureen Polo, da Hello Sunshine, e Martin McKay, da Everway — convergiu para um vocabulário compartilhado: intencionalidade em vez de adoção, "tanto/quanto" em vez de "ou/ou", e o que Polo chamou de "rebelião analógica" — uma geração de jovens que, paradoxalmente, está ansiando por papel e caneta, cartas escritas à mão, conexão presencial e autonomia sobre seu próprio tempo. Sua marca Gen Z na Hello Sunshine criou um playbook físico, impresso, para ensinar letramento em prompts. As jovens com quem trabalham não apenas toleraram. Pediram mais.


A pergunta que precisamos levar de volta para nossas mesas


Tudo o que ouvi em Austin — de uma professora de educação infantil no Queens a uma pesquisadora da Brookings com dados de cinquenta países — aponta para a mesma sequência que a UNESCO formalizou em seu AI Competency Framework for Students de 2024: mentalidade centrada no ser humano primeiro, depois ética, depois técnicas, depois design de sistemas. Essa ordenação não é acidental. E se aplica tanto a quem constrói materiais de aprendizagem quanto a quem os utiliza em sala de aula.


Para professores, "o esforço é o que importa" significa proteger a luta produtiva — a página em branco, o primeiro rascunho fracassado, o momento de confusão que antecede a compreensão. Significa resistir à tentação de deixar a IA suavizar cada dificuldade, porque é na dificuldade que a fiação cerebral acontece.

Para quem trabalha com publicação, as implicações são mais difíceis de encarar, mas igualmente reais. Significa interrogar nossos próprios fluxos de trabalho: quando usamos IA para acelerar a produção de conteúdo, estamos fazendo materiais melhores ou apenas mais rápidos? Quando projetamos uma experiência digital para o aluno que se adapta em tempo real para reduzir atrito, estamos servindo o aprendiz ou apenas otimizando para métricas de engajamento? E quando um cliente nos pede para produzir conteúdo assistido por IA em escala — o que acontece cada vez mais — temos um framework para decidir onde a IA agrega valor e onde ela esvazia exatamente aquilo que estamos tentando construir?


Essas não são perguntas hipotéticas. São conversas de procurement, briefings editoriais, roadmaps de produto. Estão acontecendo agora, na maioria das nossas organizações, e com frequência demais sem o embasamento pedagógico que a pesquisa exige.


Entre palestras, painéis, conversas de corredor, uma convicção veio à tona com clareza: o futuro da educação não será decidido pela tecnologia que implementamos, mas pelas relações humanas que escolhemos proteger — em nossas salas de aula, em nosso conteúdo e nas decisões que tomamos sobre que tipo de esforço estamos dispostos a pedir dos aprendizes.

Se já vimos esse filme antes — com redes sociais, com tempo de tela, com cada promessa de que uma nova ferramenta revolucionaria a aprendizagem —, desta vez não temos desculpa para não saber como ele termina. A questão é se vamos agir com base no que sabemos, ou simplesmente otimizar pela conveniência e chamar isso de progresso.

 
 
 

Posts recentes

Ver tudo
IA sem professor não funciona

A pesquisa TIC Educação 2024, recém-lançada, revela uma contradição preocupante no cenário educacional brasileiro: enquanto as tecnologias digitais avançam rapidamente nas escolas, a formação dos prof

 
 
 

1 comentário


Derick Coriolano
Derick Coriolano
há 4 horas

Que texto interessante! Obrigado por compartilhar, Paulo.

Curtir
bottom of page