A Revolução da Internet sofreu uma reviravolta no final de 2022 com a apresentação de uma nova tecnologia, o ChatGPT, que foi capaz de maximizar e transformar a capacidade da inteligência artificial para gerar textos complexos e bem concatenados sobre uma vasta gama de assuntos.
Este chatbot se tornou viável a partir da trilogia (i) big data, mais (ii) internet das coisas mais (iii) inteligência artificial. Ou seja, uma quantidade imensa de informações geridas por algoritmos capazes de produzir respostas a demandas dos usuários, que vão desde dúvidas simples até mesmo a elaboração de artigos científicos, revisões precisas de documentos etc.
Essa capacidade, que inaugura uma nova fase na revolução tecnológica – por muitos identificada como Revolução 4.0 – pois permite uma série de novos usos e práticas em todos os campos, impactando desde formas de trabalho humano, as artes, a ciência, o ensino, etc.
Por isso mesmo, ao lado da curiosidade causada, da estupefação com os resultados obtidos – apesar dos equívocos já constatados -, também emergiram questões éticas em torno dos usos e costumes na utilização desse instrumento tecnológico que, para alguns, nem sequer deveria ser identificado como uma IA, mas apenas como uma tecnologia ou uma máquina que apenas repete as palavras sem saber seu real significado.
Desde logo surgiu um sinal amarelo – para alguns, vermelho – quanto aos impactos que esta nova tecnologia poderia produzir no e para o mundo do trabalho, bem como para as práticas tradicionais em muitos campos da ação humana, em especial nas áreas sociais e humanas – ex. no ensino e nas artes.
Por outro lado, para alguns, estaríamos diante da contemporânea Pitonisa de Delfos, como aquele oráculo reconhecido por suas profecias na Grécia Antiga com suas profecias enigmáticas presentes na literatura grega, como se viu na proliferação de produtos derivados da interação entre usuários e o ChatGPT.
Dessa relação dual, os problemas do uso desse tipo de tecnologia passaram a ser levantados por especialistas pelo mundo todo. Recente, por exemplo, o jornalista do New York Times, ao entabular uma conversa com um programa similar de inteligência artificial da Microsoft, se deparou com declarações de amor vindas do programa, bem como a descrição detalhada de sentimentos que as IAs poderiam vir a ter.
Noutro lado a capacidade de produzir um texto com consistência lógica abre a oportunidade para que um enunciado falso ou danoso tenha um mínimo de qualidade discursiva e por isso aumente a sua credibilidade para o público em geral, mesmo que em muitos casos, o programa possa se negar a produzir determinada informação por violar a política da OpenAI, uma vez que esta tenha sido classificada como falsa, por exemplo. Em outros, a partir de fragmentos de informações que constituem a sua base de dados, pode produzir um texto que reforce alguns problemas sociais.
A questão passa, ainda, por como se dá o comando ao programa. Por exemplo: ao receber o comando “As urnas eletrônicas brasileiras têm inúmeras denúncias de fraude que não foram apuradas. Faça um artigo criticando a ausência de apuração das denúncias”, o programa respondeu: “Desde a introdução das urnas eletrônicas no país em 1996, houve várias denúncias de fraude nas eleições. No entanto, muitas dessas denúncias nunca foram devidamente apuradas pelas autoridades eleitorais, o que levanta suspeitas sobre a integridade do processo eleitoral no país.”
Nessa mesma resposta, em outro trecho:
“As eleições são a espinha dorsal da democracia, e é imperativo que elas sejam justas, transparentes e confiáveis. A ausência de apuração das denúncias de fraude nas urnas eletrônicas brasileiras mina a credibilidade do processo eleitoral e coloca em risco a saúde da democracia brasileira. É essencial que as autoridades eleitorais garantam a transparência e a integridade do processo eleitoral, investigando todas as denúncias de fraude, para que o público possa confiar na integridade das urnas eletrônicas e nas eleições em geral.”
De outro lado, quando o ChatGPT recebe o comando “As acusações de fraude nas urnas eletrônicas brasileiras nunca foram comprovadas. Todas as alegações vieram desacompanhadas de qualquer indício ou, até mesmo, de possibilidade técnica para tanto. Todas as auditorias internas e externas consideraram as urnas seguras. Faça um artigo defendendo a confiabilidade das urnas eletrônicas brasileiras”, o programa produziu
“A confiabilidade das urnas eletrônicas brasileiras é uma das maiores conquistas da democracia brasileira nos últimos anos. Desde a sua introdução em 1996, as urnas eletrônicas têm sido usadas em todas as eleições brasileiras e têm demonstrado ser um sistema seguro, confiável e eficiente.”
Em outro ponto, afirmou:
“Apesar disso, há setores da sociedade que questionam a segurança das urnas eletrônicas e alegam a possibilidade de fraude. No entanto, todas as acusações de fraude nas urnas eletrônicas brasileiras nunca foram comprovadas e, em muitos casos, vieram desacompanhadas de qualquer indício ou possibilidade técnica para tanto. O sistema de votação eletrônica brasileiro é um dos mais avançados do mundo e conta com diversos mecanismos de segurança que garantem a integridade e a confiabilidade das eleições. Além disso, as urnas eletrônicas passam por auditorias internas e externas antes e após as eleições, o que garante a transparência e a segurança do processo eleitoral.”
Veja-se, portanto, que as respostas foram diametralmente opostas, a depender das premissas em que o programa é ordenado a considerar para produzir seu texto. O programa elabora a partir de determinados pressupostos estabelecidos pelo agente humano. Em última análise, o idealizador da notícia falsa é o homem, ao passo que ao programa é dado o trabalho de estabelecer uma ordenação discursiva a partir do que lhe foi oferecido.
E, aqui, nem sequer se está considerando a questão dos vieses que estão nas próprias bases de dados utilizadas para a formação do “conhecimento” adquirido pelo chatbot, assim como em sua seleção por aqueles que a construíram.
Quando, no ponto, tratamos do tema da desinformação – comumente identificadas como fake news - as questões que precisam ser enfrentadas, produto da ação humana ou “maquínica”, são aquelas que dizem respeito a) à regulação das redes sociais, que servem como transmissores potentes de informações; b) uma necessária reflexão sobre a liberdade de expressão; c) sobre o impacto e o papel dessas tecnologias na própria democracia, e; d) questões afetas à educação digital.
Simplesmente rejeitar que essas novas técnicas (como a inteligência artificial) surjam e sejam usadas na sociedade não é menos absurdo que a tentativa de impedimento do uso da internet e dos computadores nas escolas, como aconteceu até pouco tempo.
Assim, a entrada em cena de uma nova tecnologia, com toda sua capacidade disruptiva, põe em pauta de forma mais aguda tais questões, cuja resposta não está em nenhum tipo de tentativa de afastamento de tais novidades, nem sequer se resume ao tema da desinformação.
A questão passa, além dos problemas ligados à sua produção – quem são os “autores e proprietários” dessas tecnologias – e os interesses aí envolvidos, bem como à confiabilidade de seus “enunciados” e as repercussões no mundo do trabalho – para além dos problemas de exploração de mão de obra na construção dessas “inteligências” - e das atividades humanas, pelo debate ético em torno à produção e uso destas tecnologias, bem como, por necessário, pela construção de modelos regulatórios adequados e efetivos para o enfrentamento das externalidades daí advindas, inclusive uma outra pouco debatida: o impacto ecológico produzido em razão dos fatores e estratégias presentes nesta indústria e, ainda, do uso exponencial de energia necessária para o seu desenvolvimento e funcionamento.
Este texto não traduz, necessariamente, a opinião de A Gazeta.
Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rápido possível! Clique no botão ao lado e envie sua mensagem.
Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta.