- Such Probleme: Kürzeste Wege, Structured Perceptron
- MDPs: Optimale Policy, Reinforcement Learning
- Spiele: Min-Max-Bäume, Eval Funktionen
- CSPs: Optimale Assignments
- Bayesian Network: Probabilistic Inference, Expectation Maximization
- Logik
Reflex Modelle
- Regression
- Neuronale Netzwerke
Modellierung mit Feature Vektoren
Zustandsbasierte Probleme
Modellierung mit Zuständen, Aktionen und Kosten.
Suche Pfade oder Policies im (impliziten) Zustandsgraph.
Variablenbasierte Probleme
Modellierung mit Variablen und Factors.
Logikbasierte Probleme
- Propositional logic
- First-order logic
Modellierung mit logischen Formeln und Inference Regeln.
Wir wollen Systeme haben, die autonom handeln können.
Tradeoff: Je weniger wir direkt kontrollieren, desto mehr kann unvorhergesehen schief gehen.
"Intelligente" Systeme unbeaufsichtigt laufen zu lassen ist immer gefährlich.
Bösartiger User Input ist immer ein Problem.
Simon Weckert erzeugt Stau auf Google Maps mit 99 Smart Phones
Auch der Input zur Inferenz kann man angreifen.
Idee: Gradient nutzen um kleine Veränderung in Richtung einer anderen Klasse zu generieren.
Solche "adversarial attacks" funktionieren inzwischen recht generisch mit nur geringen Störungsinputs.
Lernende Systeme können durch bösartigen Input besonders nachhaltig geschädigt werden.
Auch ohne dediziert bösartigen Input können intelligente Systeme existierende Vorurteile lernen.
- Machine Learning Systeme lernen existierende Vorurteile aus Trainingsdaten.
- Das entspricht ihrer Zielfunktion.
- KI Systeme können (aktuell) keine ethischen Abwägungen machen.
- Durch Safeguards verschwindet das Problem nur oberflächlich.
- WIr müssen gut überlegen, für was wir ein KI System einsetzen wollen.
Es ist schwer zu definieren, was gut und was schlecht ist.
Trolley problem
- Ethik richtet sich nach den Prinzipien und Werten der Menschen und Gesellschaft.
- Meistens gibt es keine einfachen Antworten und viele Grauzonen
- Werte der Gesellschaft ändern sich mit der Zeit.
- Legal $\neq$ Ethisch
- Wir haben selber Entscheidungsgewalt darüber, welche Technologie wir bauen.
Wir wollen ein Modell trainieren, das den IQ einer Person aus Fotos und Textausschnitten der Person vorhersagt.
- Sollten wir das tun?
- Wer profitiert von davon? Was ist der Mehrwert?
- Arbeitgeber
- Bildungseinrichtungen
- Einwanderungsbehörden
- Wie kann das Modell Schaden anrichten?
- IQ ist potentiell ein schlechter Proxy für zukünftige Performance.
- Menschen mit niedrigem IQ bekommen keine Chance.
Wir verwenden oft Proxies als Label
| Was wir wollen | Proxy Label |
| Performance im Job | IQ |
| Wahrscheinlichkeit dass jemand ein Verbrechen begeht | Wahrscheinlichkeit, dass jemand verurteilt wird |
| Interesse einer Person | Klick auf einen Link |
| Nächstes korrektes Wort in einem Satz | Nächstes Wort, dass in einem Satz verwendet wird |
- Die wahren Label sind oft nicht verfügbar / sehr komplex.
- Der Proxy Wert korreliert höchstens mit dem richtigen Wert.
- Der Proxy kann voreingenommen sein.
Trainieren eines Modells, dass den IQ einer Person vorhersagt.
- Wer profitiert von davon?
- Wie kann das Modell Schaden anrichten?
- Welche Art von Schaden kann das Modell anrichten?
- Menschen bekommen keinen Job / Ausbildung / werden ausgewiesen.
- Was ist der Fehler der Modells?
- Ist der Fehler ähnlich für alle Teilgruppen?
- Tradeoff zwischen verschiedenen Metriken.
- Was sind die Kosten für eine Fehlklassifikation?
Beispiel: Vorhersage von diversen Charakteristika aus Porträt Bildern (Startup Faception)
- Wer hat welchen Schaden bei Fehlentscheidungen des Systems?
- In welcher Relation steht die Fehlerrate unseres Systems zum potentiellen Schaden?
- Wie hoch ist der Fehler im echten Einsatz?
Trainieren eines Modells, dass den IQ einer Person vorhersagt.
- Wer profitiert von davon?
- Wie kann das Modell Schaden anrichten?
- Welche Art von Schaden kann das Modell anrichten?
- Was ist der Fehler der Modells?
- Wer ist verantwortlich?
- Forscher / Softwareentwickler? Manager? Gesetzgeber? Gesellschaft?
- Gängiger Irrglaube: KI (das Internet / Computer) sind eine so neue Technologie, dass es keine Gesetze dafür gibt.
- Meistens existieren Gesetze, die auch viele neue Fälle abdecken.
- Diese können unpassend sein.
- Oft gibt es wenige Präzedenzfälle.
- Grauzonen sind schwer im Vorfeld zu beurteilen.
Beispiel
Wir haben einen smarten Voice Assistant gekauft, der die Option hat Produkte Online zu kaufen.
- Fall 1: Wir ordern aus Versehen etwas, das wir nicht wollen.
- Fall 2: Unser Kind ordert etwas, das wir nicht wollen.
- Fall 3: Ein Nachrichtensprecher im Fernsehen ordert für uns etwas, das wir nicht wollen.
Wessen Fehler ist das (wer zahlt die Rücksendekosten)?
- Ein Vertrag basiert auf einer "Willenserklärung".
- In diesem Fall stimmt offensichtlich eine Partei dem Kauf nicht willentlich zu.
- Um einfachen Handel zu ermöglichen gibt es Abkürzungen, um zu einem Vertrag zu kommen.
- Jemanden bei einer Auktion gestenreich zu grüßen kann als Gebot zählen.
- Wir können Entscheidungen delegieren (auch an einen Algorithmus).
Wenn wir unsere Kaufentscheidung an den Voice Assistant delegieren, muss der Shop annehmen, dass wir diesen
verantwortlich verwenden.
- In Fall 1 kommt voraussichtlich ein gültiger Vertrag zustande.
- In Fall 3 hier kann wahrscheinlich der Hersteller in Regress genommen werden.
- Fall 2 ist schwieriger - potentiell ist das aber Verfehlung des Anwenders.
Beurteilung hängt sehr davon ab, was vom Besitzer des Voice Assistant erwartet werden kann.