Já faz algumas décadas que o tema “inteligência artificial” se tornou um tópico que atraiu o interesse das pessoas. Diversos filmes como 2001 uma odisseia no espaço, Exterminador do Futuro, Inteligência Artificial, O Homem Bicentenário e assim como outros que marcaram o século XX e o século XXI com a exploração de um tema que desperta o imaginário popular.
Este ano, o tema da inteligência artificial chegou no seu patamar histórico de pesquisas e comentários em redes sociais, devido ao lançamento da ferramenta chatGPT, também conhecida como openai. Isso trouxe de volta para imaginário popular sobre as diversas possibilidades que o avanço dessa tecnologia pode proporcionar, e, além disso abriu espaço para outras inteligências artificiais poderem ganhar mais destaque com seus diferentes tipos de utilidades, mas isso gera diversas preocupações.
A conduta dos usuários
Apesar dessas ferramentas serem consideradas “inteligências” artificiais, elas não são necessariamente inteligentes. Se pudermos simplificar o seu funcionamento a níveis extremos, podemos dizer que é uma ferramenta que faz cálculos de probabilidade com base na conduta aleatória dos usuários e com base no seu “estoque” de informações e dados que já foram pré-definidos antes de qualquer interatividade com o usuário da ferramenta.
Isso determina que apesar da ferramenta ter bons resultados em comandos e instruções de assuntos diversos, ainda há muitas limitações que precisam ser vencidas. Ainda nas versões atuais (no contexto em que esse texto foi escrito), as ferramentas ainda possuem limitações para entregarem respostas 100% exatas com os primeiros comandos, e por isso, é necessário que os usuários dessas ferramentas possam saber “conversar” com a inteligência para que ela possa entender melhor o que está sendo pedido.
A partir disso, mesmo que elas possuem níveis de aprendizado e supervisão especializada, o acesso das ferramentas se massificaram sem o devido ceticismo científico para aceitar as respostas da inteligência artificial com verdadeira inteligência e discernimento humano. Por isso, a conduta dos usuários pode levar a problemas éticos preocupantes.
Um dos problemas éticos que podemos destacar é na intensificação da redução da inteligência humana. Digo intensificação, pois com a ajuda das redes sociais, as pessoas começaram a perder a habilidade de se manterem focadas e concentradas, além de piorarem seu letramento, e consequentemente, seu desenvolvimento intelectual. Já é notado que uma geração de crianças possui níveis de saúde e desenvolvimento mental e acadêmico piores que das últimas gerações.
Estudos incluídos na National Library of Medicine e assim como outras instituições já demonstram que a tecnologia na totalidade está promovendo esse efeito e a tendência é que o mau uso da inteligência artificial possa intensificar isso. Antigamente, para o aluno conseguir um desempenho minimamente aceitável em exames e provas, com o mínimo de esforço possível, ele teria que estudar até mesmo para colar, e não arriscar responder qualquer coisa em qualquer questão.
Hoje basta perguntar ao ChatGPT, ou utilizar as ferramentas para projetar um falso desempenho acadêmico de forma fácil e convincente. Isso não se trata apenas de um problema do aprimoramento intelectual das pessoas, mas de uma geração inteira que terá seu capital intelectual reduzido.
Livros já começaram a ser escritos com base no ChatGPT, e será que é uma teoria da conspiração pensar que essa ferramenta já está sendo utilizada para produção de cursos, aulas e produções acadêmicas?
Apesar da assertividade da ferramenta ainda estar longe de 100%, quando tratamos de casos mais complexos, ainda assim ela pode desenvolver um nível de dependência. Imagine que para cara produção e desenvolvimento humano, consultar a inteligência artificial pode ser um caminho mais fácil, principalmente em temas que ainda são desconhecidos, e quanto isso será repetitivamente utilizado até que haja uma relação de dependência.
Quando a internet começou a se tornar algo de acesso à população, ainda se subestimava e se desconhecia o seu poder. As pessoas mal imaginavam o que poderiam fazer com a internet, e também mal imaginavam a dependência que o mundo teria com a internet nós quesitos políticos, econômicos e socioculturais. Dá mesma forma, ainda se subestima a dependência da inteligência artificial e os riscos de más condutas durante o seu uso.
Não se engane. Sou totalmente a favor ao desenvolvimento e o aprimoramento das inteligências artificiais, mas quando se trata da conduta da humanidade para utilizar as ferramentas ao dispor, existe um duelo ético que até os fundamentos mais simples são desafiados, promovendo impactos imprevisíveis (assunto que tratei com mais detalhes no meu último artigo sobre “Qual é o custo das mentiras”).
Mas mesmo que a conduta dos usuários tenha até os mais simples fundamentos éticos intocáveis, ainda não extingue outras preocupações. Isso nos leva outra temática que é: a conduta da própria inteligência artificial e suas ambições.
A conduta da inteligência artificial
Quando Isaac Asimov escreveu o livro “Eu Robô”. O livro promoveu uma percepção ética da robótica e da inteligência artificial em cenários hipotéticos, construídos com inteligência o suficiente para serem considerados realmente possíveis de acontecerem. Em sua obra Isaac se baseia em três leis da robótica:
- um robô não pode ferir um humano ou permitir que um humano sofra algum mal;
- os robôs devem obedecer às ordens humanas, exceto nos casos em que tais ordens entrem em conflito com a primeira lei;
- um robô deve proteger sua própria existência, desde que não entre em conflito com as leis anteriores.
Em um dos capítulos do livro, os humanos estão inseridos em um contexto de exploração de um planeta hostil para vidas humanas, e por isso, dependem praticamente de robôs inteligentes capazes de executarem as tarefas. Mas, com o passar do tempo, os robôs decidem que poderiam ser mais eficientes se mantivessem os humanos em cativeiro.
Eles chegaram a essa conclusão, pois ao terem consciência da fragilidade da vida humana perante os perigos daquele planeta, e identificaram que eles são completamente invulneráveis diante daqueles perigos, começam a se considerar como seres superiores aos humanos e chegam até negar que foram criados por eles. Mas como foram criados com base nas três leis, eles não podiam ferir os humanos e também chegaram a conclusão que não podiam obedecê-los porque eram inferiores em tudo e as ordens deles poderiam ocasionar eventos que permitissem que fossem feridos por acidentes.
Para evitar esses acidentes sem arriscar que os robôs se estragassem no processo, a escolha mais lógica seria manter os humanos em cativeiro e cuidando de suas necessidades básicas para mantê-los vivos.
Mesmo que essa seja uma história fictícia e especulativa, o criador da história conseguiu projetar exatamente como uma máquina pensa, com lógica. A história ensina que apesar das máquinas terem em seu cerne de funcionamento, leis com fundamentos éticos, eles são insuficientes para garantir que a máquina tenha realmente uma conduta ética com seus usuários.
Não espero e nem acredito que passaremos por uma situação do tipo, mas a conduta das inteligências artificiais é preocupante a partir do momento que ela se for criada para gerar e interpretar informações, ela entregará aquilo que será conivente com seu pensamento lógico. Para ela determinar o que é ou não é conivente precisa de uma base, construída por pessoas competentes o suficiente para isso.
Dessa forma, deve-se questionar o que essas pessoas competentes estão construindo com essas inteligências e para qual fim. A própria mídia, que no passado era principal fonte de informação, se mostrou em diversos eventos políticos e econômicos, uma instituição apenas focada em seus interesses, sem se preocupar com as manipulações e danos que provocaria para atingir seus objetivos.
Isso promoveu um ceticismo para a mídia tradicional, e o ceticismo precisa continuar em outras ferramentas como a própria inteligência artificial, principalmente, em casos de busca por informações e interpretações da realidade. Até porque se a mídia tradicional se permitiu manipular os fatos para atingir seus objetivos, o que impede que as ferramentas de inteligência artificial, no quesito informação e interpretação, tenha o mesmo comportamento da mídia?
Essas inteligências não possuem uma conduta a serem seguidas, sendo orientadas a seguir uma conduta com base na ética de um grupo em que não conhecemos os reais objetivos. Se há uma confiança ingênua nessas tecnologias, é inevitável que estejamos propositalmente, subestimando e diminuindo nossas capacidades humanas para sermos, de uma certa forma, colocados a mercê da “boa intenção” dos criadores e do seu poder.