Lições Aprendidas ao Tentar Discutir com um Cético de IA O episódio começou com um meme político que eu postei: Donald Trump e Benjamin Netanyahu em macacões laranja de prisão, sentados em um beliche sob uma sobreposição natalina quente e nostálgica com a frase “All I Want for Christmas”. A ironia visual era imediata e afiada. Criá-lo exigiu soluções deliberadas. Os modelos contemporâneos de geração de imagens possuem tanto salvaguardas de política quanto limitações técnicas de coerência: - O Grok permite caricaturas de figuras proeminentes, mas falha consistentemente em produzir texto sobreposto confiável. - O ChatGPT destaca-se em gerar texto decorativo festivo como “All I Want for Christmas”, mas suas salvaguardas recusam prompts que retratam líderes políticos vivos em cenários de prisão. Nenhum modelo único conseguiu produzir a imagem completa. Os elementos contraditórios — sátira política carregada combinada com mensagem sentimental de feriado — ativam mecanismos de recusa ou falhas de coerência. Os LLMs simplesmente são incapazes de sintetizar componentes conceitualmente opostos em uma saída coerente. Eu gerei os dois elementos separadamente e, em seguida, os mesclei e editei manualmente no GIMP. O composto final foi inegavelmente gerado por humano: meu conceito, minha seleção de componentes, minha montagem e ajustes. Sem essas ferramentas, a sátira teria permanecido presa na minha cabeça ou surgido como figuras de palito rudimentares — desprovidas de todo impacto visual. Alguém denunciou a imagem como “gerada por IA”. No dia seguinte, o servidor introduziu uma nova regra proibindo conteúdo gerado por IA generativa. Essa regra — e o meme que a desencadeou — me inspirou diretamente a escrever e publicar o ensaio “Mentes de Alta Dimensão e o Fardo da Serialização: Por Que os LLMs Importam para a Comunicação Neurodivergente”. Eu esperava que isso incentivasse uma reflexão sobre como essas ferramentas servem como acomodações cognitivas e criativas. Mas acabou se transformando em uma troca bastante desconfortável com o administrador. A Posição do Cético e a Troca de Ideias O administrador argumentou que os LLMs não são desenvolvidos para o benefício humano, mas promovem desperdício de recursos e militarização. Ele citou consumo de energia, laços militares, colapso de modelos, alucinações e o risco de uma “internet morta”. Ele revelou que apenas folheou o ensaio e admitiu possuir uma workstation gamer poderosa capaz de rodar LLMs locais avançados para diversão privada, com acesso a modelos ainda maiores por meio de um amigo. Várias contradições emergiram: - Meu trabalho ocorre em um Raspberry Pi 5 de baixa potência e reparável (5–15 W) usando instâncias compartilhadas na nuvem. A configuração local dele consome muito mais energia dedicada e hardware. - O hardware que ele usa para “brincar” com LLMs poderosos localmente vem de empresas (Intel, AMD, NVIDIA) com bilhões em contratos diretos com o DoD. Mais impressionante, a pessoa que impunha a proibição para proteger a autenticidade estava dispensando alguém que ativamente testa LLMs quanto a viés factual e geopolítico (veja minhas auditorias públicas do Grok e ChatGPT). A Analogia com Hawking e as Palavras do Próprio Administrador O administrador se identificou como neurodivergente e reconheceu o potencial da IA como tecnologia assistiva. Ele elogiou óculos de legendas em tempo real para deficientes visuais como “realmente legais”, mas insistiu que “ter uma máquina escrevendo ensaios e desenhando imagens é diferente”. Ele acrescentou: “Pessoas neurodivergentes podem fazer essas coisas, muitas superaram barreiras para desenvolver essas habilidades.” Ele também descreveu sua própria experiência com LLMs: “Quanto mais eu já sei sobre um tópico, menos preciso de IA. Quanto menos sei sobre um tópico, menos equipado estou para notar alucinações e corrigi-las.” Essas declarações revelam uma profunda assimetria na forma como as acomodações são julgadas. Imagine aplicar a mesma lógica a Stephen Hawking: “Reconhecemos que um sintetizador de voz poderia ajudá-lo a se comunicar mais rapidamente, mas preferimos que você se esforce mais com sua voz natural. Muitas pessoas com doença do neurônio motor superaram barreiras para falar claramente — você também deveria desenvolver essas habilidades. A máquina está fazendo algo diferente da fala real.” Ou, da própria perspectiva dele sobre precisão factual: “Quanto mais Hawking já sabe sobre cosmologia, menos ele precisa do sintetizador. Quanto menos sabe, menos equipado está para notar erros na voz da máquina e corrigi-los.” Ninguém aceitaria isso. Entendemos que o sintetizador de Hawking não era uma muleta ou diluição — era a ponte essencial que permitia que sua mente extraordinária compartilhasse toda a sua profundidade sem barreiras físicas insuperáveis. O conforto do administrador com prosa linear e escalonada por humanos reflete um estilo cognitivo que se alinha mais de perto com expectativas neurotipicas. Meu perfil é o inverso: profundidade factual e lógica vem naturalmente (como no desenvolvimento de uma plataforma de publicação multilíngue inteiramente por mim mesmo), mas produzir prosa escalonada e acessível para audiências humanas sempre foi a barreira — exatamente o que o ensaio descreve. Aceitar óculos de legendas ou texto alternativo como acomodações legítimas enquanto rejeita o escalonamento de LLMs para divergência cognitiva é traçar uma fronteira arbitrária. O Mastodon e o Fediverse mais amplo frequentemente se orgulham de sua inclusividade. No entanto, isso introduz novos portões: certas acomodações são bem-vindas; outras devem ser superadas por esforço individual. Ecos Históricos: Resistência a Ferramentas Transformadoras A rejeição total ao uso público de IA generativa ecoa um padrão recorrente ao longo da história tecnológica. Na Inglaterra do início do século XIX, tecelões qualificados conhecidos como luditas destruíram teares mecanizados que ameaçavam seu ofício e meios de subsistência. Acendedores de lampiões a gás nas cidades se opuseram à lâmpada incandescente de Edison, temendo obsolescência. Cocheiros, tratadores de estábulos e criadores de cavalos resistiram ao automóvel como uma ameaça existencial ao seu modo de vida. Escribas e desenhistas profissionais viam a fotocopiadora com alarme, acreditando que ela desvalorizaria o trabalho manual meticuloso. Tipógrafos e impressores lutaram contra sistemas de composição computadorizados. Em todos os casos, a resistência provinha de um medo genuíno: a nova tecnologia tornava obsoletas as habilidades das quais eles se orgulhavam, desafiando seus papéis econômicos e identidade social. As mudanças pareciam uma desvalorização do trabalho humano. No entanto, a história avalia essas inovações por seu impacto mais amplo: a mecanização reduziu o trabalho penoso e possibilitou a produção em massa; a iluminação elétrica estendeu as horas produtivas e melhorou a segurança; os automóveis concederam mobilidade pessoal; as fotocopiadoras democratizaram o acesso à informação; a composição digital tornou a publicação mais rápida e acessível. Poucos hoje voltariam aos lampiões a gás ou ao transporte puxado por cavalos apenas para preservar empregos tradicionais. As ferramentas expandiram a capacidade e a participação humana muito mais do que a diminuíram. A IA generativa — usada como prótese para cognição ou criatividade — segue a mesma trajetória: ela não erradica a intenção humana, mas estende a expressão àqueles cujas ideias foram constrangidas por barreiras de execução. Rejeitá-la completamente arrisca repetir o impulso ludita — defendendo processos familiares ao custo de uma participação mais ampla. Conclusão: Quem Decide Quais Acomodações São Aceitáveis? Os eventos narrados neste ensaio — uma imagem denunciada, uma proibição imposta às pressas, um debate prolongado — revelam mais do que um desacordo local sobre tecnologia. Eles expõem uma questão muito mais profunda e fundamental: Quem decide quais acomodações são aceitáveis e quais não são? Deve ser as pessoas que vivem dentro da pele e do cérebro que precisam da acomodação — aquelas que sabem, pela experiência diária, o que preenche a lacuna entre suas capacidades e a plena participação? Ou deve ser outsiders, por mais bem-intencionados que sejam, que não compartilham essa realidade vivida e, portanto, não podem sentir o peso da barreira? A história responde a essa pergunta repetidamente, e quase sempre na mesma direção. Cadeiras de rodas já foram criticadas por encorajar dependência; sistemas educacionais para surdos insistiam há muito que as crianças aprendessem a ler lábios e fala oral em vez de linguagem de sinais. Em todos os casos, as pessoas mais próximas da deficiência eventualmente prevaleceram — não porque negassem preocupações com custo, acesso ou potencial mau uso, mas porque eram as autoridades primárias sobre o que realmente restaurava sua agência e dignidade. Com modelos de linguagem grandes e outras ferramentas generativas, estamos vivendo o mesmo ciclo novamente. Muitos que controlam seu uso não experimentam as barreiras cognitivas ou expressivas específicas que tornam o escalonamento linear, o fluxo narrativo ou a serialização rápida uma tarefa exaustiva de tradução para uma língua estrangeira. De fora, “apenas se esforce mais” ou “desenvolva a habilidade” pode soar razoável. De dentro, a ferramenta não é um atalho ao redor do esforço; é a rampa, o aparelho auditivo, a prótese que finalmente permite que o esforço pré-existente alcance o mundo. A ironia mais profunda surge quando os árbitros se identificam como neurodivergentes, mas sua neurologia particular se alinha mais de perto com expectativas neurotipicas no domínio julgado. “Eu superei dessa forma, então os outros também deveriam” é compreensível, mas ainda funciona como controle de acesso — replicando as mesmas normas que criticamos quando vêm de autoridades neurotipicas. Um princípio ético consistente está atrasado: - A pessoa mais próxima da deficiência é a autoridade primária sobre o que permite sua participação significativa. - A crítica externa é legítima quanto a danos coletivos (impacto ambiental, risco de desinformação, deslocamento de trabalho), mas não quanto à legitimidade interna da acomodação em si. Um duplo padrão particularmente revelador aparece na demanda generalizada de que o uso de IA generativa seja explicitamente divulgado. Não exigimos divulgação similar para a maioria das outras acomodações. Pelo contrário, celebramos avanços tecnológicos que as tornam invisíveis: óculos grossos substituídos por lentes de contato ou cirurgia refrativa; aparelhos auditivos volumosos miniaturizados até quase invisibilidade; medicação para foco, humor ou dor tomada privadamente sem nota de rodapé ou aviso. Nesses casos, a sociedade trata o uso discreto e oculto como progresso — como uma restauração de dignidade e normalidade. No entanto, quando a acomodação estende a cognição ou expressão, o roteiro se inverte: agora deve ser sinalizado, anunciado, justificado. A invisibilidade torna-se suspeita em vez de desejável. Essa demanda seletiva por transparência não é verdadeiramente sobre prevenir engano; é sobre preservar o conforto com uma imagem particular de autoria humana não assistida. Correções físicas são permitidas desaparecer; correções à mente devem permanecer visivelmente marcadas. Se quisermos ser consistentes, devemos ou exigir divulgação para toda acomodação (um requisito absurdo e invasivo) ou parar de destacar ferramentas cognitivas para escrutínio especial. A posição principiada — aquela que respeita autonomia e dignidade — é permitir que cada pessoa decida quão visível ou invisível sua acomodação deve ser, sem regras punitivas que visem uma forma de assistência porque ela perturba noções existentes de criatividade e intelecto. Este ensaio não é meramente uma defesa de uma ferramenta particular. É uma defesa do direito mais amplo de pessoas deficientes e neurodivergentes de definir suas próprias necessidades de acesso, sem ter que justificá-las àqueles que nunca andaram em seus sapatos. Esse direito não deveria ser controverso. No entanto, como o relato precedente mostra, ainda é.