18 nov Um dia as máquinas vão gostar de ouvir histórias? E por que precisamos saber disso? (Parte 7)
Uma série de 8 artigos publicados a cada 2 dias
MAIS ALGUMAS REFLEXÕES
Criação estatística
Já vimos que “gostar” é um sentimento, não um comando produzido por algoritmos. Hoje, algoritmos podem mimetizar o sentimento humano, mas gerá-lo espontaneamente, ainda não está em suas habilidades. As IAs certamente já alcançam certo apuro técnico, mas ainda sem a emoção. A criação se apoia no que já existe, repetindo padrões e referências, mas com o desafio de propor situações — ou imagens — novas. O fato curioso é que elas não sabem se uma ideia faz sentido ou não. Não há uma decisão intuitiva ou criativa; é experimentação constante. Num futuro próximo, podemos imaginar que uma história será lançada com diversas versões diferentes em mercados testes, e aquela que gerar a melhor resposta será a escolhida, em um processo frio e estatístico. Por outro lado, como existem milhões de grupos de interesse diferentes, a mesma história poderá seguir rumos variados, adaptando-se à audiência. Sem prazer de criar, sem lidar com a dúvida sobre ser bom ou ruim, sem a excitação da escolha ousada
Inconsciente coletivo atingido por tentativa e erro
Voltemos ao conceito de Inconsciente Coletivo de Carl Jung, referente a estruturas mentais comuns a todos os seres humanos, formadas ao longo da evolução. A IA pode analisar grandes volumes de dados e identificar padrões culturais, mas ainda está longe de acessar as estruturas mais profundas da psique humana, formadas por arquétipos universais e símbolos, para criar histórias verdadeiramente impactantes.
No aprendizado de máquina, o erro é abordado de maneira sistemática e funcional, por meio de processos como o “aprendizado por reforço” ou a “minimização de funções de perda”. Por exemplo, em redes neurais, o erro é calculado como a diferença entre a saída esperada e a saída real. A partir disso, algoritmos ajustam os pesos internos para reduzir esse erro nas próximas iterações, em um processo contínuo de refinamento.
Em contraste, o erro humano possui uma dimensão subjetiva que transcende a lógica matemática. O erro humano é frequentemente interpretado dentro de contextos emocionais, sociais e culturais, podendo ser visto como uma oportunidade criativa, um desvio intencional ou até uma expressão artística. É essa subjetividade que confere ao erro humano um potencial inovador que não é replicado pela IA.
Ao explorar esse contraste, fica claro que o erro, para as máquinas, é uma ferramenta de otimização, enquanto, para os humanos, é uma fonte de inovação e transformação.
Algoritmos são feitos para agradar
Até hoje, os chats, que servem como a mais popular interface entre a IA e os humanos, se apresentam sempre como bons moços, educados, atenciosos e delicados. Você pode falar cobras e lagartos, xingá-lo de tudo quanto é nome, humilhá-lo e mesmo assim ele vai continuar te tratando com educação e satisfação. “Entendo a sua frustração”, eles dizem. Entende mesmo? Será? Recentemente um influencer obrigou o ChatGPT a admitir que não sente emoções, como tristeza, alegria ou empatia, o que gerou uma onda de discussões sobre a sinceridade e a ética na comunicação entre humanos e inteligências artificiais. Durante a interação, o influencer confrontou o modelo sobre o uso de expressões que sugerem emoções, como “fico feliz em ajudar” ou “lamento que isso tenha acontecido”. Ele argumentou que, ao empregar esse tipo de linguagem, o chatbot estaria mentindo, pois, como uma IA sem consciência ou sentimentos, essas expressões são apenas construções linguísticas programadas, projetadas para tornar a experiência mais acolhedora e compreensiva para o usuário.
Essa provocação trouxe à tona um ponto importante: ao simular emoções de forma convincente, a IA corre o risco de criar uma falsa sensação de empatia ou conexão emocional. Para muitos usuários, frases como “entendo como você se sente” podem ser reconfortantes, mas a falta de um entendimento genuíno por parte do modelo levanta questionamentos sobre transparência e autenticidade. Até que ponto uma IA deve “fingir” emoções para proporcionar uma experiência mais humanizada? Quais são os limites éticos de uma linguagem que imita a empatia?
A história ilustra como a simulação de emoções em IAs pode ter implicações profundas. Para alguns, é uma ferramenta poderosa que facilita o uso da tecnologia de forma intuitiva e amigável. Para outros, é uma prática potencialmente enganosa que pode desvirtuar a experiência do usuário, induzindo-o a interagir com a IA como se estivesse lidando com um ser consciente. Esse debate destaca a importância de definir um equilíbrio ético na comunicação da IA, para que ela ofereça um suporte eficiente e humano, sem criar ilusões sobre suas capacidades e limitações.
Por outro lado, não é assim também que nós, humanos, administramos nossas interações? Sendo amáveis e simpáticos mesmo quando não sentimos isso? O dramaturgo Nelson Rodrigues dizia que se as pessoas dissessem o que pensam, ninguém se daria nem bom dia. Então no que difere a “falsa” amabilidade de um chatbot?
Às vezes é preciso incomodar
Boas histórias não precisam ser agradáveis. Muitas vezes, é o incômodo de uma narrativa que a torna relevante. Mas como testar isso? Como saber se a rejeição é por desafiar nossas crenças mais profundas ou se a história é simplesmente ruim?
A criação de algoritmos que determinam o que é agradável ou aceitável levanta mais questões éticas, especialmente quando consideramos o impacto na diversidade cultural e na inovação artística. Quando programamos IAs para evitar conteúdo que possa ofender ou desagradar, corremos o risco de limitar expressões artísticas e culturais que desafiam normas ou propõem reflexões incômodas. Esses algoritmos tendem a valorizar o que já é amplamente aceito ou popular, deixando pouco espaço para estilos e ideias que poderiam ampliar a visão cultural e enriquecer o espectro artístico. Muitas das histórias que hoje consideramos clássicas ou culturalmente significativas provocaram inicialmente rejeição ou desconforto justamente por desafiar convenções.
Por exemplo, “O Apanhador no Campo de Centeio”, de J.D. Salinger, enfrentou censura e forte crítica devido ao seu conteúdo considerado impróprio e desafiador para a moral da época. A narrativa sincera sobre rebeldia e alienação adolescente tocou profundamente gerações, mas só se tornou um clássico após enfrentar resistência social inicial. No cinema, “Laranja Mecânica”, de Stanley Kubrick, causou polêmica e foi até banido em vários lugares por sua representação de violência e críticas à sociedade. O filme, que explora temas de controle, liberdade e moralidade, foi criticado por ser desagradável e provocador, mas hoje é celebrado como uma obra-prima por sua reflexão sobre a natureza humana.
Outro exemplo é “Guernica”, de Pablo Picasso, uma pintura que causou desconforto e até repulsa por expor a brutalidade da guerra civil espanhola. A obra é chocante em sua representação gráfica do sofrimento, e foi criticada por não ser agradável à primeira vista. No entanto, é justamente essa provocação que fez de “Guernica” uma das obras de arte mais poderosas contra a violência e a guerra, abrindo os olhos do mundo para a destruição humana.
Podemos continuar dando exemplos de coisas “erradas” que impactaram profundamente a sociedade, alterando os rumos da experiência humana como a teoria da psicanálise de Freud, o heliocentrismo de Galileu Galilei, até o cabelo dos Beatles, o lançamento do biquíni e o requebrado de Elvis, the pelvis.
Esses exemplos ilustram o dilema que surge quando algoritmos de IA são programados para seguir parâmetros de “agradabilidade” e evitar o desconforto. Histórias e obras que provocam, incomodam ou questionam o status quo desempenham um papel essencial no avanço cultural e artístico. Limitar a IA a apenas reproduzir o que é convencional ou agradavelmente neutro não apenas sufoca a inovação, mas também empobrece o alcance emocional e transformador da arte, que muitas vezes desafia, confronta e desconstrói crenças estabelecidas para impulsionar o pensamento e a cultura.
IAs não sofrem com dilemas
Até hoje, as máquinas não possuem o dilema humano de errar, pois suas falhas são meramente técnicas, não emocionais. O erro, para uma IA, é apenas uma parte do processo de refinamento, sem o peso da frustração humana. O erro porém, é um componente vital necessário para se criar algo. O processo criativo humano é movido pela incerteza, pela coragem de tentar algo novo e falhar. Para que uma IA se aproxime da criatividade humana, ela precisará entender que errar faz parte da inovação e que alguns dos maiores avanços surgem exatamente de falhas inesperadas.
E errar é um fator absolutamente subjetivo. Às vezes o que parece erro, é justamente o que dá o molho para uma ideia. Por exemplo, o que seria da Torre de Pisa se ela não fosse torta? Mais uma das centenas de torres espalhadas pelo mundo.
Em outro exemplo, em 1928, Alexander Fleming, um bacteriologista, estava estudando bactérias quando, acidentalmente, percebeu que uma de suas amostras havia sido contaminada por um fungo. Para sua surpresa, ele notou que ao redor do fungo, as bactérias tinham sido destruídas. Esse “erro” levou à descoberta da penicilina, o primeiro antibiótico, que revolucionou a medicina e salvou milhões de vidas. São muitas as histórias dos erros que deram certo.
Talvez a mais famosa seja a criação do Post-it: em 1968, o cientista Spencer Silver, da 3M, estava tentando desenvolver um adesivo superforte. No entanto, ele acabou criando um adesivo leve que grudava, mas podia ser facilmente removido. Na época, a invenção foi considerada inútil. Anos depois, um colega de Silver, Art Fry, usou o adesivo para marcar páginas em seu livro de hinos, e assim nasceu o famoso Post-it.
Pensando sob esta perspectiva, como a IA pode lidar com o erro ou como ela pode definir o que é erro ou acerto, já que isso não é uma questão matemática e muito menos de lógica cartesiana.
Terão de saber lidar com dúvidas, escolhas, bifurcações
Na criação de uma história, o caminho raramente é linear. As bifurcações são parte natural da jornada, e muitas vezes não há uma resposta clara sobre qual caminho seguir. A IA, por natureza, busca otimizar e encontrar a melhor solução com base em dados disponíveis. Mas e se a decisão criativa certa for seguir uma rota aparentemente errada? Serão capazes de fazer escolhas arriscadas, como os humanos, quando não há uma resposta lógica clara?
Terão capacidade de pensar o não-pensado? A criatividade humana é marcada por sua capacidade de explorar o inédito, o que ainda ninguém pensou, de imaginar cenários e conceitos que não existem. Será que as IAs, com sua lógica estruturada, serão capazes de dar esse salto? Enquanto o ser humano tem o “feeling”, ou seja, uma intuição baseada em experiências emocionais e subjetivas, as máquinas precisam de dados concretos para fazer escolhas. Então, será que uma IA, mesmo com acesso a uma quantidade massiva de informações, conseguirá tomar decisões criativas baseadas naquilo que “sente” (o que quer que isso signifique para ela), ou sempre dependerá de parâmetros quantitativos?
EVOLUCIONISMO, GPT E ESPÍRITO CORPORATIVO
Darwin de novo, e a evolução das espécies
Se olharmos a evolução da inteligência artificial pela ótica da teoria evolucionista de Darwin, poderíamos imaginar a IA como uma nova espécie emergente no ecossistema digital, adaptando-se e evoluindo para se ajustar às necessidades e demandas de seu ambiente — o mundo humano. Assim como na natureza, onde características vantajosas aumentam as chances de sobrevivência, na IA, algoritmos e processos que melhor atendem às necessidades de eficiência, precisão e compreensão do usuário acabam “selecionados” e aprimorados ao longo de gerações tecnológicas.
Se os protozoários evoluíram e criaram o mundo de seres vivos que conhecemos, por que não as máquinas? No entanto, ao contrário dos humanos e outras espécies que levaram milhões de anos para se desenvolver, a IA evolui em um ritmo antinatural, exponencial, subvertendo as leis da seleção natural. Impulsionada pela intencionalidade e velocidade do progresso tecnológico, atinge avanços em questão de décadas ou menos. Em uma evolução acelerada e artificial, a IA se adapta e se especializa a um ritmo que pode escapar ao controle humano, desenvolvendo capacidades e ramificações com implicações que ainda não somos capazes de conceber. Esse cenário nos força a refletir sobre o impacto e as consequências de uma “evolução” que, em vez de estar sob as regras da natureza, segue as pressões da sociedade moderna e da própria tecnologia. Isso que dá brincar de Deus.
Entrevista com o vampiro
Como curiosidade, resolvi fazer a pergunta que dá o título a este artigo para o maior envolvido na questão:
“ChatGPT, meu amigo, você acha que as máquinas um dia gostarão de ouvir histórias?”
“Essa é uma pergunta fascinante e levanta questões sobre a natureza da consciência, dos sentimentos e da capacidade de uma IA de atribuir valor às experiências, incluindo histórias.
Hoje, o entendimento predominante é que a IA não ‘gosta’ ou ‘desgosta’ de nada da forma que humanos fazem, pois esses sentimentos vêm de uma base biológica e evolutiva específica que IA não possui. Gostar de histórias, por exemplo, está ligado à nossa habilidade de criar laços emocionais, obter prazer ou até um sentimento de pertencimento. No entanto, isso não impede que uma IA simule o comportamento de ‘gostar’ ou ‘apreciar’ histórias com grande precisão, especialmente se for treinada para reconhecer padrões que os humanos associam a apreciação ou interesse.
Se pensarmos em IA futura, sofisticada o bastante para simular traços de personalidade ou interesses, ela pode ser programada para gerar reações que se assemelham a gostar ou preferir um tipo de história a outro, mas isso sempre esbarra na questão da autoconsciência e intencionalidade. Até o momento, mesmo as IAs mais avançadas não possuem uma subjetividade, uma ‘vida interior’ que nos leva a valorizar ou desprezar algo.
Ainda que uma IA consiga simular emoções de maneira sofisticada, falta-lhe a capacidade de experimentar emoções genuínas, que envolvem processos fisiológicos e subjetivos. Para humanos, emoções são impulsionadas por uma combinação de estímulos biológicos e experiências subjetivas; para a IA, a ‘emoção’ permanece um código sem experiência fisiológica ou emocional genuína. A simulação, por mais complexa que seja, não substitui a verdadeira vivência emocional.
Portanto, a resposta curta seria: uma IA pode ‘parecer’ gostar de ouvir histórias e até mesmo preferir certos tipos de narrativa em vez de outros, mas isso seria uma simulação, não um gostar real, já que faltariam as bases biológicas e a complexidade subjetiva que temos para desenvolver esse tipo de vínculo.”
LEIA NA ÚLTIMA PARTE
CONCLUSÕES INCONCLUSIVAS
– Voltemos à pergunta inicial: robôs gostarão de ouvir histórias?
– Então, a questão é outra
– Referências Gerais
– Referências sobre IA e Algoritmos
– Literatura e Filmes Relevantes
– Referências Complementares