Como estabelecer limites éticos para o uso de IA nas empresas
IA vem se tornando cada vez mais essencial na otimização de processos e insights que guiam as estratégias da empresa, por outro, levanta uma série de questões ligadas à segurança do seu uso.
Adriano Almeida, COO da Alura Para Empresas. (Foto: Divulgação)
O uso da tecnologia no ambiente corporativo já é mais do que uma realidade, principalmente quando falamos de Inteligência Artificial (IA). Apenas no que diz respeito às micro, pequenas e médias empresas, uma pesquisa da Microsoft e Edelman Comunicação revela que 74% das organizações no Brasil utilizam essa ferramenta. Outro estudo, desta vez da IBM, mostra que 51% dos Chief Data Officers (CDOs) brasileiros aderiram a esse recurso para tomar decisões melhores e mais rápidas. No entanto, é evidente que um impacto desse tamanho não chega sem desafios. E o maior deles, com certeza, é relacionado às limitações éticas da IA.
Se por um lado essa tecnologia vem se tornando cada vez mais essencial na otimização de processos e no levantamento de insights valiosos que guiam as estratégias da empresa, por outro, levanta uma série de questões ligadas à segurança do seu uso. Definir políticas claras sobre sua implementação e aplicação, considerando aspectos legais e uma utilização responsável, é uma missão inevitável para qualquer organização que queira crescer na era digital.
Inclusive, dados da Accenture já demonstram a presença dessa demanda no mercado. Um levantamento da consultoria indica que 98% das companhias possuem algum projeto de IA Generativa, porém 95% ainda estão em uma fase inicial de adoção segura.
Treinamento da base de dados
Considerando que as referências que alimentam uma IA serão o ponto de partida da sua performance, o equilíbrio ético da ferramenta depende do tratamento que a empresa dará ao seu banco de dados. Por isso, a primeira preocupação das lideranças ao implementarem essa tecnologia deve ser a de preservar a privacidade e a segurança da informação.
A adequação às normas da Lei Geral de Proteção de Dados Pessoais (LGPD) é fundamental nesse sentido, uma vez que evita que a tecnologia utilize informações pessoais ou identificáveis das pessoas colaboradoras, como nomes ou documentos. Ou, ainda que haja esse uso, a adaptação à legislação garantindo que nenhum desses conhecimentos seja compartilhado indevidamente.
Já a segunda preocupação deve ser a de eventuais enviesamentos da base de dados. A IA precisa ser treinada para remover vieses ou atributos sensíveis, criando padrões que não constranjam ou discriminem as pessoas em qualquer uma das suas atuações, ou até mesmo abram espaço para a propagação de deep fakes ou notícias falsas. O grande desafio aqui é que a IA é treinada por dados alimentados por humanos, com seus vieses. Esse é um círculo difícil de ser fechado e uma grande batalha em andamento.
Com isso, as diretrizes que promovem o desempenho da tecnologia não podem ser baseadas em um número reduzido de fontes e conhecimentos limitados sobre questões como gênero, raça e religião. A amostragem de dados sempre precisa ser correta, diversa e representativa, garantindo que todas as categorias sejam tratadas da forma mais justa possível.
Humanização da IA
Por fim, vale frisar que os desafios éticos sobre o uso da IA estão interconectados com a sua “humanização”. O cuidado aqui é a compreensão de que essa ferramenta não é capaz de funcionar plenamente sem uma atuação humana por trás e, principalmente, de pessoas que entendam como ela pode ser utilizada de maneira adequada.
É nesse ponto que devemos ressaltar a necessidade da empresa se desenvolver na IA como um todo. Ações de capacitação e treinamentos podem melhorar essa compreensão, seja de como os times irão construir e usar um prompt ou até no entendimento claro das implicações legais dessa tecnologia.
Aliás, essa jornada de educação corporativa também envolve a própria validação da ferramenta. Não há dúvidas de que a IA é promissora e pode ser uma grande aliada para guiar estratégias de áreas inteiras, mas desde que os profissionais revisem as suas recomendações. Todos os resultados da IA devem ser acompanhados com regularidade, de modo que se tornem insumos para proporcionar melhorias e evitar cada vez mais possíveis disparidades.
Obviamente, esse não é um caminho à prova de erros. A chave para a inovação depende da experimentação e, por essa razão, a curva de aprendizado da IA precisa estar totalmente ligada também à forma como cada empresa encoraja seus colaboradores a pensar. Só quem pode estabelecer os limites éticos da ferramenta somos nós mesmos.