Conforme o administrador de empresas Fernando Trabach Gomes Filho, a ética e a regulação na inteligência artificial (IA) são temas urgentes e inadiáveis para garantir um uso seguro e justo dessa tecnologia. À medida que algoritmos assumem funções cada vez mais decisivas em áreas como saúde, segurança, finanças e gestão pública, cresce a necessidade de estabelecer limites éticos e normativos claros.
Neste artigo, abordamos os principais desafios éticos relacionados ao uso da IA, o panorama da regulação nacional e internacional, e as perspectivas para o desenvolvimento de uma inteligência artificial realmente responsável.
Os principais dilemas éticos da inteligência artificial
A inteligência artificial levanta questões complexas sobre privacidade, transparência, responsabilidade e equidade. Segundo Fernando Trabach Gomes Filho, algoritmos que tomam decisões sem supervisão humana direta podem reproduzir preconceitos, cometer erros graves e comprometer direitos fundamentais se não forem projetados e monitorados com rigor.
Entre os exemplos mais discutidos estão os sistemas de reconhecimento facial que discriminam grupos sociais, os mecanismos de pontuação de crédito com viés racial ou de gênero, e os algoritmos de recrutamento automatizado que excluem perfis injustamente.
A necessidade de regulação clara e efetiva
De acordo com Fernando Trabach Gomes Filho, a ausência de uma regulação sólida para o uso da inteligência artificial abre brechas para abusos por parte de empresas, governos ou instituições. A regulação não deve impedir a inovação, mas sim orientar o desenvolvimento da IA em uma direção ética, segura e transparente.

Países como a União Europeia já avançam com legislações robustas, como o AI Act, que classifica sistemas de IA por níveis de risco e estabelece obrigações proporcionais. No Brasil, iniciativas como o Marco Legal da Inteligência Artificial ainda estão em discussão no Congresso Nacional e precisam considerar a proteção dos cidadãos em primeiro lugar.
Transparência algorítmica e responsabilização
Conforme Fernando Trabach Gomes Filho, um dos pilares da ética na IA é a chamada “transparência algorítmica” — a capacidade de explicar como um algoritmo chega a determinada decisão. Isso é fundamental para permitir auditorias, correção de erros e responsabilização de seus criadores ou operadores.
Outro ponto crucial é a definição de quem responde por danos causados por sistemas autônomos. A responsabilidade legal ainda é difusa, especialmente quando os algoritmos se baseiam em redes neurais que operam como uma “caixa preta”.
Inclusão e diversidade no desenvolvimento de IA
Assim como aponta Fernando Trabach Gomes Filho, a composição das equipes que desenvolvem inteligência artificial influencia diretamente a imparcialidade dos sistemas. A falta de diversidade — de gênero, raça, cultura e formação — pode resultar em soluções que reforçam desigualdades ou ignoram realidades distintas.
Portanto, promover a inclusão no setor de tecnologia não é apenas uma questão social, mas também um critério técnico para melhorar a qualidade e a justiça dos algoritmos.
Caminhos para uma IA ética e humanizada
Assim como destaca Fernando Trabach Gomes Filho, a inteligência artificial deve ser moldada com base em princípios humanistas: respeito à dignidade, à autonomia e aos direitos fundamentais. Para isso, é necessário investimento em educação ética nas áreas de tecnologia, cooperação internacional na elaboração de normas e participação ativa da sociedade civil no debate.
O desenvolvimento da IA deve ser guiado por uma visão de longo prazo, que priorize o bem-estar coletivo acima dos interesses econômicos imediatos.
A ética e a regulação da inteligência artificial são elementos indispensáveis para que essa tecnologia cumpra seu papel de transformar positivamente a sociedade. O equilíbrio entre inovação e responsabilidade será o grande diferencial entre sistemas que empoderam e sistemas que oprimem. É hora de agir com consciência, planejamento e compromisso público.
Autor: Mondchet Thonytom