Rückschau

  • Such Probleme: Kürzeste Wege, Structured Perceptron
  • MDPs: Optimale Policy, Reinforcement Learning
  • Spiele: Min-Max-Bäume, Eval Funktionen
  • CSPs: Optimale Assignments
  • Bayesian Network: Probabilistic Inference, Expectation Maximization
  • Logik

Reflex Modelle

  • Regression
  • Neuronale Netzwerke

Modellierung mit Feature Vektoren

Zustandsbasierte Probleme

  • Suchprobleme
  • MDPs
  • Spiele

Modellierung mit Zuständen, Aktionen und Kosten.

Suche Pfade oder Policies im (impliziten) Zustandsgraph.

Variablenbasierte Probleme

  • CSPs
  • Bayesian networks

Modellierung mit Variablen und Factors.

Logikbasierte Probleme

  • Propositional logic
  • First-order logic

Modellierung mit logischen Formeln und Inference Regeln.

AI Sicherheit und Ethik

Wir wollen Systeme haben, die autonom handeln können.

Tradeoff: Je weniger wir direkt kontrollieren, desto mehr kann unvorhergesehen schief gehen.

"Intelligente" Systeme unbeaufsichtigt laufen zu lassen ist immer gefährlich.

www.derstandard.de

Bösartiger User Input ist immer ein Problem.

Simon Weckert erzeugt Stau auf Google Maps mit 99 Smart Phones

Simon Weckert

Auch der Input zur Inferenz kann man angreifen.

Idee: Gradient nutzen um kleine Veränderung in Richtung einer anderen Klasse zu generieren.

"Explaining and Harnessing Adversarial Examples", Goodfellow, Shlens & Szegedy

Solche "adversarial attacks" funktionieren inzwischen recht generisch mit nur geringen Störungsinputs.

"Accessorize to a Crime: Real and Stealthy Attacks on State-of-the-Art Face Recognition", Sharif, Bhagavatula, Bauer & Reiter.

"Accessorize to a Crime: Real and Stealthy Attacks on State-of-the-Art Face Recognition", Sharif, Bhagavatula, Bauer & Reiter.

LLMs bringe die neue Klasse der
Prompt Injection Attacks mit sich.

https://twitter.com/goodside/status/1569128808308957185

Lernende Systeme können durch bösartigen Input besonders nachhaltig geschädigt werden.

    Microsoft Twitter Bot "Tay"

  • Released 2016
  • Interagiere mit Usern
  • Lerne aus Konversationen

Twitter.com

Twitter.com

Auch ohne dediziert bösartigen Input können intelligente Systeme existierende Vorurteile lernen.

https://twitter.com/abhi1thakur/status/1600016676052996099

  • Machine Learning Systeme lernen existierende Vorurteile aus Trainingsdaten.
    • Das entspricht ihrer Zielfunktion.
    • KI Systeme können (aktuell) keine ethischen Abwägungen machen.
    • Durch Safeguards verschwindet das Problem nur oberflächlich.
  • Wir müssen gut überlegen, für was wir ein KI System einsetzen wollen.

Es ist schwer zu definieren, was gut und was schlecht ist.

Trolley problem

https://en.wikipedia.org/wiki/File:Trolley_Problem.svg

Küken Classifier

$\Rightarrow$
$\Rightarrow$
Hahn
$\Rightarrow$
Henne

Wikipedia, Wikipedia, and Wikipedia

  • Ethik richtet sich nach den Prinzipien und Werten der Menschen und Gesellschaft.
  • Meistens gibt es keine einfachen Antworten und viele Grauzonen
  • Werte der Gesellschaft ändern sich mit der Zeit.
  • Legal $\neq$ Ethisch
  • Wir haben selber Entscheidungsgewalt darüber, welche Technologie wir bauen.

    Wir wollen ein Modell trainieren, das den IQ einer Person aus Fotos und Textausschnitten der Person vorhersagt.

  • Sollten wir das tun?
  • Wer profitiert von davon? Was ist der Mehrwert?
    • Arbeitgeber
    • Bildungseinrichtungen
    • Einwanderungsbehörden
  • Wie kann das Modell Schaden anrichten?
    • IQ ist potentiell ein schlechter Proxy für zukünftige Performance.
    • Menschen mit niedrigem IQ bekommen keine Chance.

Wir verwenden oft Proxies als Label

Was wir wollenProxy Label
Performance im JobIQ
Wahrscheinlichkeit dass jemand ein Verbrechen begehtWahrscheinlichkeit, dass jemand verurteilt wird
Interesse einer PersonKlick auf einen Link
Nächstes korrektes Wort in einem SatzNächstes Wort, dass in einem Satz verwendet wird
  • Die wahren Label sind oft nicht verfügbar / sehr komplex.
  • Der Proxy Wert korreliert höchstens mit dem richtigen Wert.
  • Der Proxy kann voreingenommen sein.

    Trainieren eines Modells, dass den IQ einer Person vorhersagt.

  • Wer profitiert von davon?
  • Wie kann das Modell Schaden anrichten?
  • Welche Art von Schaden kann das Modell anrichten?
    • Menschen bekommen keinen Job / Ausbildung / werden ausgewiesen.
  • Was ist der Fehler der Modells?
    • Ist der Fehler ähnlich für alle Teilgruppen?
    • Tradeoff zwischen verschiedenen Metriken.
    • Was sind die Kosten für eine Fehlklassifikation?

Beispiel: Vorhersage von diversen Charakteristika aus Porträt Bildern (Startup Faception)

https://www.faception.com

  • Wer hat welchen Schaden bei Fehlentscheidungen des Systems?
  • In welcher Relation steht die Fehlerrate unseres Systems zum potentiellen Schaden?
  • Wie hoch ist der Fehler im echten Einsatz?

    Trainieren eines Modells, dass den IQ einer Person vorhersagt.

  • Wer profitiert von davon?
  • Wie kann das Modell Schaden anrichten?
  • Welche Art von Schaden kann das Modell anrichten?
  • Was ist der Fehler der Modells?
  • Wer ist verantwortlich?
    • Forscher / Softwareentwickler? Manager? Gesetzgeber? Gesellschaft?

Rechtliche Aspekte

  • Gängiger Irrglaube: KI (das Internet / Computer) sind eine so neue Technologie, dass es keine Gesetze dafür gibt.
  • Meistens existieren Gesetze, die auch viele neue Fälle abdecken.
    • Diese können unpassend sein.
    • Oft gibt es wenige Präzedenzfälle.
    • Grauzonen sind schwer im Vorfeld zu beurteilen.

Beispiel

    Wir haben einen smarten Voice Assistant gekauft, der die Option hat Produkte Online zu kaufen.

  • Fall 1: Wir ordern aus Versehen etwas, das wir nicht wollen.
  • Fall 2: Unser Kind ordert etwas, das wir nicht wollen.
  • Fall 3: Ein Nachrichtensprecher im Fernsehen ordert für uns etwas, das wir nicht wollen.

Wessen Fehler ist das (wer zahlt die Rücksendekosten)?

  • Ein Vertrag basiert auf einer "Willenserklärung".
    • In diesem Fall stimmt offensichtlich eine Partei dem Kauf nicht willentlich zu.
  • Um einfachen Handel zu ermöglichen gibt es Abkürzungen, um zu einem Vertrag zu kommen.
    • Jemanden bei einer Auktion gestenreich zu grüßen kann als Gebot zählen.
    • Wir können Entscheidungen delegieren (auch an einen Algorithmus).

Beispiel basiert auf: "KI & Recht kompakt", Matthias Hartmann.

Wenn wir unsere Kaufentscheidung an den Voice Assistant delegieren, muss der Shop annehmen, dass wir diesen verantwortlich verwenden.

  • In Fall 1 kommt voraussichtlich ein gültiger Vertrag zustande.
  • In Fall 3 hier kann wahrscheinlich der Hersteller in Regress genommen werden.
  • Fall 2 ist schwieriger - potentiell ist das aber Verfehlung des Anwenders.

Beurteilung hängt sehr davon ab, was vom Besitzer des Voice Assistant erwartet werden kann.

The end.