Ministra Virtual da Albânia: inovação, riscos e lições para o Brasil
A Albânia surpreendeu o mundo ao anunciar a nomeação de Diella, uma ministra gerada por inteligência artificial (IA), cujo nome significa "sol" em albanês
Publicado: 26/09/2025 às 08:30

Uma mulher olha para um celular enquanto usa o portal do governo albanês "E - Albania", agora auxiliado pelo avatar "Diella", ministro do gabinete de inteligência artificial do governo, em Tirana, em 12 de setembro de 2025. O primeiro-ministro da Albânia anunciou em 11 de setembro de 2025 que o avatar "Diella", de inteligência artificial, se tornará o primeiro ministro do gabinete de IA "criado virtualmente" e será responsável pelas compras públicas, em uma tentativa de reduzir a corrupção. (Foto de Adnan Beci / AFP)
A Albânia surpreendeu o mundo ao anunciar a nomeação de Diella, uma ministra gerada por inteligência artificial (IA), cujo nome significa “sol” em albanês. A função dela? Assumir o controle das decisões sobre licitações e contratações públicas, com a promessa de combater a corrupção e acelerar processos.
À primeira vista, parece uma revolução digital sem precedentes. Mas, antes de batermos palmas para esse avanço, é preciso fazer uma pausa e refletir. Colocar uma IA no controle de decisões tão sérias e com tanto impacto, sem uma supervisão humana clara, é no mínimo perigoso sob o ponto de vista da proteção de dados e da responsabilidade civil.
No campo da proteção de dados, os riscos residem na opacidade da tomada de decisão. Se os dados de treinamento forem enviesados, se o código tiver uma falha ou, pior ainda, se alguém mal-intencionado manipular o sistema, o perigo é transferir a corrupção humana para a chamada “corrupção algorítmica”. A transparência prometida pode facilmente virar uma cortina de fumaça.
Quanto à responsabilidade, se um ministro-IA errasse ou discriminasse numa licitação, quem seria responsável? O Estado? O programador? O gestor político que implementou a IA? No Brasil, prevaleceria a responsabilidade objetiva do Estado (art. 37, §6º da CF), mas haveria repercussões regressivas contra fornecedores e gestores, o que criaria um vácuo jurídico enorme.
Nesse ponto, vale lembrar que o Brasil já possui uma experiência semelhante — mas com uma diferença crucial. A Controladoria-Geral da União (CGU) desenvolveu a ferramenta “Alice” (Analisador de Licitações, Contratos e Editais), que utiliza técnicas de mineração de textos e inteligência artificial para identificar riscos em compras e contratações públicas. O detalhe é que os alertas emitidos pela Alice são necessariamente avaliados por gestores humanos, garantindo que a decisão final não seja automatizada.
Além disso, a Lei Geral de Proteção de Dados (Lei 13.709/2018) se preocupou com esses riscos ao regular a tomada de decisões automatizadas. O artigo 20 da LGPD é categórico: o titular de dados tem direito de solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais. A exigência de revisão humana, portanto, é uma salvaguarda legal que impede a entrega cega de decisões relevantes a sistemas algorítmicos.
Por fim, temos que a experiência albanesa é histórica e merece atenção, mas traz uma lição clara: a inteligência artificial deve ser apenas apoio, nunca substituta do julgamento humano. No combate à corrupção, seja na Albânia ou no Brasil, não se pode delegar decisões a algoritmos sem rosto, voz ou responsabilidade.
* Juliano Félix é advogado do Escobar Advocacia e especialista em Direito Digital

