Bizarrices
A avó presa pela IA
Uma avó do Tennessee foi presa por engano durante cinco meses porque uma inteligência artificial disse que sim
Angela Lipps tinha cinquenta anos, cinco netos, e uma vida inteiramente circunscrita ao estado do Tennessee quando, no dia 14 de Julho do ano passado, viu a porta da sua casa ser arrombada por polícias armados que vieram buscá-la como fugitiva. A acusação: fraude bancária em Fargo, no Dakota do Norte, a mais de 1600 quilómetros de distância, num estado que Angela nunca tinha visitado, numa cidade onde nunca tinha posto os pés.
Ler também : Avó em pé de guerra: recusa-se a cuidar do neto porque… não gosta do nome escolhido
Angela Lipps nunca tinha apanhado um avião. Tinha passado a maior parte da sua vida no norte do Tennessee. Não tinha antecedentes criminais. Não tinha qualquer ligação ao Dakota do Norte. O que tinha era um rosto que um software de reconhecimento facial — utilizado pela polícia de Fargo numa investigação de fraude bancária — tinha identificado como sendo o de uma suspeita. O software estava errado. Angela ficou presa durante quase seis meses antes de o engano ser reconhecido.
Como o erro aconteceu
O reconhecimento facial forense funciona comparando características biométricas de imagens — fotografias de vigilância, imagens de redes sociais, registos fotográficos — com bases de dados de identificação. Quando o sistema encontra uma correspondência com nível de confiança suficiente, gera um resultado que as autoridades podem usar como ponto de partida para uma investigação.
O problema estrutural — documentado por investigadores de direitos civis há anos, mas que continua a ser subestimado na prática — é que estes sistemas têm taxas de erro significativamente mais elevadas em determinadas características faciais, e que o “nível de confiança” que o software atribui às suas correspondências não reflecte necessariamente a precisão real do resultado. Um sistema pode afirmar com 94% de confiança que dois rostos correspondem à mesma pessoa. Isso não significa que haja 94% de probabilidade de a correspondência ser correcta — significa que o algoritmo encontrou um grau elevado de semelhança entre as imagens. São coisas diferentes.
No caso de Angela Lipps, a polícia de Fargo obteve um mandado de captura com base na identificação do software. O mandado foi executado no Tennessee sem que aparentemente nenhuma das verificações adicionais que deveriam acompanhar uma identificação por reconhecimento facial — como confirmar se a suspeita tinha ligações conhecidas ao local do crime, ou se havia outros elementos de prova corroborantes — tivesse sido realizada de forma adequada.
Cinco meses e meio, e depois a liberdade
Angela Lipps passou 163 dias detida antes de ser libertada. A sua história tornou-se mais um dado numa lista crescente de casos documentados de prisões erradas com base em reconhecimento facial — uma lista que levantou alarmes junto de organizações de direitos civis em vários países e que alimentou debates legislativos sobre os limites do uso desta tecnologia em contexto policial.
A ironia mais pesada da situação é que Angela Lipps — avó, babysitter, pessoa sem qualquer ligação ao crime — se tornou, involuntariamente, um rosto desta discussão. A tecnologia que a prendeu continua a ser usada por forças policiais em vários estados americanos. As reformas legislativas avançam a um ritmo que os críticos descrevem como insuficiente.
A inteligência artificial, por sua vez, não foi chamada a prestar declarações. O que é, em si mesmo, uma nota de rodapé reveladora sobre a forma como atribuímos responsabilidade quando os erros são cometidos por sistemas e não por pessoas.