Futuro da inteligência artificial generativa depende da mitigação de falhas atuais
É importante ter em mente que modelos de linguagem são desprovidos de sentido e contexto, portanto não há um entendimento completo do que é questionado.
André Serpa, vice-presidente da América Latina para Neo4j. (Foto: Divulgação)
Soluções baseadas em inteligência artificial generativa se tornaram um dos assuntos mais pesquisados e discutidos no mundo da tecnologia no último ano. Mas assim, como a discussão sobre o assunto explodiu de forma exponencial, emergiram também problemas derivados do seu funcionamento. Há uma aceleração por pesquisas, previsões e lançamentos baseados em Gen AI, mas uma questão precisa ser discutida. O quão longe chegaremos, se não começarmos a trabalhar na otimização dos erros gerados por essas soluções?
Não há como introduzir o assunto sem falar na grande atenção do mercado dos últimos meses: o ChatGPT. Não levou muito tempo para que a sua utilização em grande escala, que atingiu mais de 100 milhões de usuários, apresentasse equívocos no funcionamento. Questões como “alucinações”, debates sobre crédito e cópia de materiais, além de preocupações com proteção de dados, são alguns deles.
O ChatGPT é desenvolvido por meio do modelo em LLM (sigla em inglês para Large Language Models), derivado da inteligência artificial generativa, o mais amplo modelo de Inteligência Artificial, capaz de trabalhar diferentes iniciativas que podem ser aplicadas em diversos meios e negócios, como produção de texto, música, design, produtos, etc. Sua funcionalidade é baseada em aprender padrões e usa dados pré-estabelecidos para gerar coisas ou respostas, mas dependem exclusivamente do que é solicitado.
É importante ter em mente que modelos de linguagem são desprovidos de sentido e contexto, portanto não há um entendimento completo do que é questionado. No caso do sistema da Open AI, há um cálculo probabilístico que une sílabas e palavras, que podem sair da ideia original do assunto, até que varie de tal forma que o domínio original esteja totalmente modificado. Por isso, faz-se necessário que novos modelos passem a ser desenvolvidos com mais transparência, precisão e explicabilidade.
De acordo com relatório Global AI Software Forecast, publicado pela consultoria Forrester neste mês de setembro, a aplicabilidade de softwares baseados em IA generativa causará um crescimento anual de 35% no índice de vendas de softwares até 2030 - ano em que o valor desse mercado deve atingir USD 227 bilhões. Ao mesmo tempo, plataformas de comunicação e chatbot levarão os custos com softwares dessa tecnologia chegar a USD 45 bilhões no mesmo período.
Já a consultoria McKinsey publicou em julho uma análise que avalia o potencial econômico mundial da produtividade da inteligência artificial generativa, que deve agregar o equivalente a US$ 2,6 trilhões a US$ 4,4 trilhões anualmente pelo mundo. Há também previsão de um retorno equivalente a US$ 200 bilhões a US$ 340 bilhões por ano no impacto das receitas de setores da indústria, sobretudo financeiro/bancário e ciências. No varejo e nos bens de consumo embalados, o impacto potencial também é significativo, de US$ 400 bilhões a US$ 660 bilhões por ano.
É preciso voltar um passo atrás para buscarmos maneiras de como solucionar os atuais problemas enfrentados antes de fazermos previsões e esperar por milagres operados por inteligências artificiais e robôs. Os desafios são inúmeros. Mas, diferente do que se acredita, há sim soluções para fomentá-los, e é possível começar com o que pode parecer óbvio: para resolver soluções que carecem de boas respostas, precisamos oferecer mais informações e gerar, portanto, um contexto.
Imagine que um banco possa diminuir o índice de golpes em pedidos de empréstimos se obtivesse mais informações sobre aquele cliente e pudesse gerar um contexto que os impedisse de aprovar aquela cota. É possível obter isso em LLM’s com algoritmos alimentados por grafos de conhecimento, por exemplo, capazes de explorar bilhões de dados e identificar as respostas necessárias e conexões por trás de cada uma. A resposta, nesse caso, será mais informação, mais dados, e consequentemente, mais processamento.
Ainda é cedo para falar sobre as novas tecnologias que virão, mas é possível prever que haverá uma demanda para soluções cada vez mais personalizadas, desenvolvidas para gerar experiências, simulações, e perspectivas. Ao mesmo tempo, será necessário trilhar um caminho ligado à originalidade e à ética.
Enquanto isso, a sociedade deve trabalhar para compreender e ponderar os resultados apresentados em soluções de inteligência artificial para evitar que haja dúvida sobre o certo e afirmação do que é errado.