Sztuczna inteligencja się myli. Policja aresztuje niewinnych ludzi
Co najmniej ośmiu Amerykanów zostało aresztowanych, ponieważ zostali mylnie zidentyfikowani przez oprogramowanie rozpoznawania twarzy - podał we wtorek dziennik "Washington Post". Policja w USA używa sztucznej inteligencji do zatrzymywania podejrzanych bez konieczności posiadania innych dowodów.
Dziennik przeanalizował policyjne dane z raportów, akt sądowych oraz rozmów z policją, prokuratorami i adwokatami. Redakcja zastrzegła, że najprawdopodobniej naświetliła za ich pomocą niewielką część problemu: prokuratorzy rzadko informują opinię publiczną, kiedy użyli narzędzi sztucznej inteligencji (AI), a prawo wymaga ich ujawnienia tylko w siedmiu stanach. Całkowita liczba przypadków niesłusznych aresztowań spowodowanych przez błędne wyniki wyszukiwania przez narzędzia AI jest więc niemożliwa do ustalenia - podkreślił "WP".
Można było wykluczyć
Jak ustaliła gazeta, w ośmiu znanych przypadkach niesłusznego aresztowania policja, opierając się na identyfikacji twarzy przez narzędzia AI, nie podjęła co najmniej jednego z podstawowych działań śledczych. Gdyby jednak sprawdziła alibi, porównała znaki szczególne, zbadała dowody DNA lub odciski palców, tych osiem osób można było by wykluczyć jako podejrzanych jeszcze przed aresztowaniem.
W sześciu z ośmiu przypadków policja nie sprawdziła alibi podejrzanych, a w dwóch zignorowała dowody przeczące jej założeniom - nawet tak znaczące, jak ślady DNA i odciski palców, które wskazywały na innego potencjalnego podejrzanego.
Karygodne pomyłki
W pięciu przypadkach policja nie zebrała kluczowych dowodów. Dziennik przytoczył przykład aresztowania człowieka podejrzanego o zrealizowanie w banku sfałszowanego czeku na znaczną kwotę. Po rozpoznaniu przez narzędzia AI policja zatrzymała podejrzanego, lecz nie sprawdziła nawet jego kont bankowych.
Trzykrotnie policja zignorowała cechy fizyczne podejrzanych sprzeczne z rozpoznaniem przez AI. Dziennik opisuje przypadek kobiety w zaawansowanej ciąży, aresztowanej za kradzież samochodu, mimo że ani świadkowie, ani monitoring nie wskazywali, że napadu dokonała ciężarna.
W sześciu przypadkach policja nie sprawdziła zeznań świadków. Tożsamość podejrzanego (zidentyfikowanego przez AI) o kradzież kosztownego zegarka potwierdził pracownik ochrony, którego nie było w sklepie podczas kradzieży.
Nie przeprowadzono testów
"WP" przyznał, że oprogramowanie do rozpoznawania twarzy działa niemal doskonale w warunkach laboratoryjnych, z wykorzystaniem wyraźnych zdjęć porównawczych. Jednak, jak zauważyła Katie Kinsey, badaczka z wydziału prawa uniwersytetu NYU, nie przeprowadzono niezależnych testów sprawdzających dokładność technologii stosowanej do odczytania niewyraźnych zdjęć z monitoringu. Z tego powodu trudno jest ocenić, jak często technologia wadliwie rozpoznaje twarz.
Co więcej, badacze odkryli, że osoby korzystające z narzędzi AI mogą ulegać skłonności do ślepego ufania podejmowanym przez nie decyzjom. W badaniach neurobiologów z University College of London badani wybierali jako najbardziej podobne do wzoru te odciski palców, które komputer wskazał im jako pierwsze. "Zaufanie do systemu uniemożliwiło im prawidłową ocenę podobieństw" - podkreślił dziennik.
Źródło: PAP
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca.
Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Jesteśmy na platformie X: Bądź z nami na X
Polecamy Radio Republika
Wiadomości
Tak rząd Tuska traktuje bezpieczeństwo kraju! Śliwka podaje przykład braku działań przy ustawie prezydenta
Bezrobocie? Koszty pracy? Ceny energii? Nie, problemem dla Państwowej Agencji Pracy są ogłoszenia o pracę
Najnowsze
Bogucki do Sikorskiego: mniej „kopiuj-wklej”, więcej profesjonalizmu dyplomaty
Kaczyński: Amerykanie są trudnym sojusznikiem, ale bezwzględnie nam potrzebnym
Tak rząd Tuska traktuje bezpieczeństwo kraju! Śliwka podaje przykład braku działań przy ustawie prezydenta