This page looks best with JavaScript enabled

Die Ethik hinter Predictive Policing

 ·  ☕ 6 min read

    Unsere Welt wird durch technologische Fortschritte immer digitalisierter. Auch im Bereich der Justiz, wird bereits Forschung betrieben um durch die Nutzung von Big Data und Algorithmen, Ermittler zu unterstützen. Ob nun finanzielle Transaktionen algorithmisch ausgewertet werden, oder automatisierte Gesichtserkennung auf öffentlichen Überwachungskameras eingesetzt wird, es lässt sich nicht abstreiten, dass diese Technologien bereits an vielen Orten eingesetzt werden. Da sich der technologische Fortschritt deutlich schneller entwickelt als gesetzliche Regulierungen, ist es zwingend notwendig sich mit ethischen Fragestellungen auseinanderzusetzen.

    Predictive Policing

    In diesem Artikel wird sich primär mit dem Bereich des ‘Predictive Policing’ beschäftigt. Dabei werden meist Algorithmen des maschinellen Lernens genutzt um durch Big Data menschliches, insbesondere gesetzwidriges Verhalten vorherzusagen. Diese generierten Informationen können von Koordinationsstationen genutzt werden, um Polizisten gezielt einzusetzen. Dabei handelt es sich um eine rein präventive Mittel um eventuelle kriminelle Handlungen zu unterbinden. Besonders attraktiv ist diese Methode, da es natürlich besser ist Straftaten zu verhindern, als diese zu ahnden. Demnach sind preventive Mittel allgemein reaktiven vorzuziehen, da die primäre Aufgabe der Polizei das Verhindern von Straftaten sein sollte.

    Natürlich lässt sich argumentieren, dass die Konzentration von Polizei-Präsens in gewissen Regionen eine reine Verschiebung in andere Gebiete verursacht. Es muss jedoch beachtet werden, dass es nicht ausschließlich um organisierte Kriminalität handelt, sondern auch um die Identifizierung von allgemeinen Problemgebieten.

    Ethischen Implikationen einer Kostenfunktion

    Die meisten Algorithmen des maschinellen Lernens benötigen eine Funktion um eine Aussage über die Leistung des Systems zu machen, die so genannte Kostenfunktion. Diese Funktion dient dem Algorithmus als eine Art Leitfaden, wie gut sich die von ihm getroffenen Aktionen auf die Außenwelt ausgewirkt haben. Demnach definiert die Kostenfunktion auch gleichzeitig indirekt die gewählte Strategie des Algorithmus. Bei der Wahl dieser Funktion, müssen viele moralischen Aspekte beachtet werden. Wählt man als Kostenfunktion beispielsweise die Anzahl der aufgeklärten Kriminalfälle, wird der Algorithmus eine Strategie wählen, die möglichst viele dieser aufgeklärt. Es gilt zu erforschen, welche Auswirkungen ein rein quantitatives Ziel hat und ob ein derartiges Ziel überhaupt begehrenswert für eine Gesellschaft ist. So müssten auch vermutlich auch verschiedene Arten von Delikten verschiedene Gewichtungen erhalten, da wohl eine Körperverletzung ein schweres Delikt ist, als ein Ladendiebstahl. Diese Kategorisierung von Straftaten hat ebenso Auswirkung auf die vom Algorithmus gewählte Strategie und bringt so auch die ethische Frage mit sich, welche Kostenfunktion wohl am besten für eine Gesellschaft ist. Ist es wirklich wünschenswert so viele Straftaten zu verfolgen wie nur möglich? Zudem muss sich noch die Frage gestellt werden, wie man die präventiven Auswirkungen als einen numerischen Wert abbilden kann. Denn wie bereits in der Einleitung zu diesem Artikel erwähnt, sollte ein primärer Fokus auf ein präventives Handeln gelegt werden.

    Problematik bei der Selektion der Trainings-Daten

    Bekanntlich sind Algorithmen des maschinellen Lernens, nur so gut wie die für das Training verwendeten Daten. Diese Regel betrifft auch Predictive Policing, denn ein Bias der Trainings-Daten kann unter Umständen enorme Implikationen haben.

    Beispiel
    Wir betrachten dazu eine gewöhnliche Großstadt mit einem nicht unerheblichen Randgruppenanteil. Wie nicht unüblich, sind die Verteilungen nicht gleichmäßig, sondern zu einem gewissen Grad zentralisiert. Die Strategie der Polizei wird sich demnach auch auf gewisse Bezirke fokussieren. Demnach wird auch ein großer Anteil der entdeckten Straftaten statistisch vermehrt in diesen aufgeklärt und die Dunkelziffer anderer Bezirke steigt. Sobald diese Datensätze für das Training eines Algorithmus verwendet werden, nimmt der Algorithmus diesen durch den Menschen verursachten Bias an.

    Missing

    Anbei eine Karte der amerikanischen Stadt Chicago. Dabei wurden die jeweiligen Bezirke mit einer höheren Anzahl von Straftaten rot markiert. (Quelle: Chicago Police)

    Die Problematik entsteht dadurch, dass dem KI System dieser Bias im Gegensatz zum Menschen nicht bewusst ist und somit auch nicht seine Aktionen darauf abstimmen kann. Daraus kann sich bei der Anwendung ein positiver Feedback-Loop entwickeln. Dieser kann sich in einer immer intensiveren Fokussierung auf Problemgebiete äußern. Eine logische Schlussfolgerung wäre einen Datensatz für das Training des Algorithmus zu wählen, der über keinen menschlichen Bias verfügt. Jedoch lässt sich dies nicht realistisch verwirklichen, da die einzelnen Datenpunkten des initialen Datensatzes immer Resultate von menschlichen Entscheidungen sind.

    Gleichbehandlung des Menschen

    Ein wichtiger Aspekt, den ein Predictive Policing System einhalten sollte, ist die initiale Gleichbehandlung eines jeden Menschen. Wie bereits in vorherigen Kapiteln angesprochen wurde, wird dort gegeben falls dieser Aspekt verletzt. Jedoch sollte sich auch die Frage gestellt werden, ob nicht auch alle Menschen gezwungen sind diese Regel nicht einhalten zu können. So arbeiten beispielsweise Polizisten, mit Erfahrungen und eventuell auch Stereotypen. Gegebenenfalls existiert auch der bereits angesprochenen positive Feedback Loop ebenso bei Menschen.

    Verletzung der initialen Unschuldsvermutung

    Ein wichtiges Fundament unseres Justizsystems ist das Prinzip der initialen Unschuldsvermutung. Dabei wird angenommen, dass Personen unschuldig sind bis Indizien gefunden werden, die das Gegenteil beweisen sollen. Eventuell könnten moderne KI Algorithmen dazu führen, dass diese Prinzip gefährdet wird. Durch die Nutzung von sehr großen Datenmengen können beispielsweise Personen als potentielle Kandidaten für Verbrecher prognostiziert werden. Durch dieses Profiling der gesamten Bevölkerung werden Grundrechte verletzt, da die Prognose des KI Systems ausreichen kann, um jemanden unter Verdacht zu stellen. Es lässt sich natürlich argumentieren, dass hierbei das Problem nicht bei der künstlichen Intelligenz an sich liegt, sondern an der menschlichen Interpretation der Prognose. KI Systeme entscheiden sich aber deutlich von Menschen, da diese mit weit größere Datenmengen verarbeiten können. So ist es einem technisch weit entwickeltem System möglich, systematisch die ganze Bevölkerung eines Landes zu analysieren. Somit steigt auch das Risiko, dass ganze Bevölkerungsgruppen durch den Algorithmus negativ behandelt werden.

    Zuverlässigkeit von KI Systemen

    Wie bereits angesprochen wurde, können derzeitige künstlich intelligente Systeme eigene Aktionen nicht hinterfragen. Dies impliziert ein Problem bei der Zuverlässigkeit des Systems, da dies nicht in der Lage ist, grobe Fehleinschätzungen zuverlässig zu erkennen. Diese Fehleinschätzungen können beispielsweise auch moralischer/ethischer Natur sein. Aus diesem Grund sollte der Algorithmus stets unter menschlicher Beobachtung stehen um einen derartigen Fehler frühzeitig zu erkennen. Selbstverständlich setzt dies voraus, dass die kontrollierenden Personen auch in der Lage sind, Fehleinschätzungen als solche zu identifizieren.

    KI für ethisch unproblematische Anwendungsgebiete

    Künstliche Intelligenz Systeme bieten trotz der aufgeworfenen ethischen Fragen, ein sehr hohes Potential für die Justiz Systeme dieser Welt. Beispielsweise wäre eine wohl unproblematische Anwendung von künstlicher Intelligenz, das Verbessern von Tempo Limits auf Straßen. So wäre ein solches System bestens in der Lage, anhand von Unfallstatistiken Verbesserungen an Geschwindigkeits-Limits vorzuschlagen. Ethische Komplikationen halten sich bei diesen Anwendungsgebieten minimal.

    Fazit

    Künstlich intelligente Systeme sind ein sehr mächtiges Werkzeug. Aufgrund dieser Macht muss besonders darauf geachtet werden, diese Technologien nicht in Gebieten einzusetzen, bei denen ethische und rechtliche Komplikationen entstehen können. Es existieren genug Anwendungsgebiete von künstlichen Intelligenzen, die frei von Problematiken sind und eine reine Bereicherung für die Gesellschaft bieten und Grund für technische Entwicklung sind.

    Besonders beunruhigend ist die Art und Weise, wie künstliche Intelligenzen Menschen auf subtile Art und Weise manipulieren können. Die Gefahr liegt dabei darin, dass es Menschen meist nicht bewusst ist wie sehr diese Systeme Einfluss auf ihr Leben haben. Ein einfaches und schon heute sehr relevantes Thema sind Nachrichten. So legen Firmen wie Google, Facebook, etc. sehr Wert auf Interaktion der User mit ihren Dienstleistungen. Demnach werden KI Systeme darauf ausgelegt, dass die Interaktionen (beispielsweise Clicks) der User möglichst hoch sind. Menschen tendieren dazu Bestätigung zu suchen, also ließt man tendenziell eher Artikel, die mit seiner existierenden Meinung übereinstimmen. Demnach werden Nutzern immer mehr nur Artikel gezeigt die ihr Weltbild bestätigen. So wird die Gesellschaft immer mehr polarisiert, ohne dass den einzelnen Menschen ein Vorwurf gemacht werden kann.
    Zwei Personen in zwei Realitäten.

    Share on

    Lucas Sas Brunschier
    WRITTEN BY
    Lucas Sas Brunschier
    CS Master Student