Warum Künstliche Intelligenz für das Systems Engineering nur halb so wild ist
Zur Zeit wird heftig über Künstliche Intelligenz (KI) und den ethischen Implikationen diskutiert. Und das ist auch gut so. Zum Beispiel zeigt der Kurzfilm Slaughterbots in erschreckender Weise, warum wir autonomes Töten auf keinen Fall zulassen sollten.
Wenn es um das reine Systems Engineering geht, dann muss natürlich auch einiges beachtet werden. Aber wie wir in diesem Artikel feststellen, ist es in der Praxis nur halb so wild.
In eigner Sache: Wer mehr über den Austausch von Anforderungen mit dem ReqIF-Format erfahren möchte, kann dies nun schnell über den Mastering ReqIF Online Course lernen. Für Leser von SE-Trends gibt es 25% Rabatt. Mehr erfahren >>
Rabatt bis zum 5. März 2018. Gutschein SE-TRENDS
Das Problem mit Künstlicher Intelligenz
Maschinen komplexe Aufgaben zu geben ist nicht neu. Neu ist hingegen, dass bei KI oft nicht wirklich verstanden ist, wie das System zur Lösung kommt. Konkretes Beispiel: Bis vor wenigen Jahren waren Schachprogramme empirisch: Verschiedene Züge wurden bewertet, und der Zug mit der besten Bewertung ausgewählt. Die Bewertungsregeln wurden vom Menschen Programmiert, die ausgewählten Züge waren nachvollziehbar. Moderne Schachprogramme hingegen lernen. Der Mensch baut die Lern-Infrastruktur, kann aber nur schwer verstehen, wie das Gelernte gespeichert und eingesetzt wird. Bei Schach ist das kein Problem, bei ernsthafteren Anwendungen, wie Autofahren, hingegen schon. Wenn etwas schiefgeht, dann möchten wir, bzw. der Geschädigte und der Gesetzgeber wissen, warum etwas schiefgegangen ist.
Und menschliche Intelligenz?
Und hier sind wir schon bei einem wichtigen Grund, warum unter dem Gesichtspunkt Systems Engineering dies kein allzu großes Problem ist: Systems Engineering bindet seit Jahrzehnten Menschen als Systemkomponenten in Systeme ein. Vom SE-Blickpunkt aus ist der Unterschied zwischen menschlicher und künstlicher Intelligenz nicht allzu groß: Bei beiden sollte davon ausgegangen werden, dass sie sich nicht wie erwartet verhalten.
Ein weiterer Aspekt im Systems Engineering ist das Black-Box-Denken: Es ist nicht ungewöhnlich, Systeme zu integrieren, die man nicht versteht. Wichtig ist lediglich, dass bekannt ist, wie sich das integrierte System verhält. Und dabei muss Fehlverhalten natürlich berücksichtigt werden. Wenn also ein System verbaut wird, welches Ergebnisse über einen KI-Algorithmus produziert, dann sollte zumindest verstanden sein, welche Form ein Fehlverhalten annehmen kann. Aber das ist im Prinzip auch nicht viel anders als die Frage, auf welche Weise ein elektronisches Bauteil versagen kann. Noch mal: Es kommt nicht darauf an, warum etwas schiefgegangen ist. Ist kommt darauf an zu verstehen, wie etwas schiefgehen kann.
Schuld und Haftung
Gerade wenn es um Sicherheit geht, stellt sich die Frage nach der Haftung: Wer haftet, wenn die KI eine falsche Entscheidung trifft? Aber auch hier ist es wieder sinnvoll, sich den Menschen anzuschauen: Wer haftet, wenn der Zugführer eine falsche Entscheidung trifft? Der Zugführer haftet (in der Regel) nur, wenn dieser fahrlässig, oder grob fahrlässig gehandelt hat. Nun kann man eine KI nicht zur Rechenschaft ziehen, wohl aber den Erschaffer der KI. Beim grob fahrlässigen Handeln der KI wäre dieser in der Schuld. Ähnlich wie bei einem Menschen wäre es nur begrenzt relevant, warum fahrlässig gehandelt wurde.
Auch wenn es auf den ersten Blick viele Ähnlichkeiten gibt, so gibt es doch auch viele Unterschiede, und hier kommt sicher noch viel Arbeit auf uns zu. Zum Beispiel ist es möglich, KI in einem ganz anderen Maßstab zu überwachen, als wir es mit Menschen machen – und das sollten wir auch tun. Schließlich könnten statistische Auswertungen uns frühzeitig auf Probleme hinweisen. Wenn diese ignoriert werden, so könnte das als fahrlässig anzusehen.
Das Weichensteller-Dilemma
Beim diesem Dilemma hat ein Unbeteiligter die Option nicht einzugreifen, wobei viele Menschen sterben, oder einzugreifen, wodurch nur einer stirbt. Von diesem Dilemma gibt es dutzende Varianten, auch angepasste Versionen für autonome Autos. Daimler hat für einen kleinen Aufruhr gesorgt, als in einem offiziellen Statement die Sicherheit der Insassen über die Sicherheit der Verkehrsteilnehmer gestellt wurde.
Für Daimler ist die Sicherheit der Insassen des Autos wichtiger als die der Verkehrsteilnehmer
Twittern
Auch wenn dies ein ungutes Gefühl weckt, so kann man wieder die Parallele zum Menschen ziehen: In einem konkreten Fall wäre die Frage wohl eher, wie es zu einer schlimmen Situation mit zwei tödlichen Optionen kommen konnte. Und nicht, warum der Entscheider eine tödliche Option einer anderen vorgezogen hat (solange die Entscheidung nicht fahrlässig war).
Fazit
Künstliche Intelligenz wirft viele neue Fragen auf, darunter auch einige kontroverse. Und Systemingenieure sollten sich auch an diesem Diskurs beteiligen, denn ein Bewusstsein für die Problematik ist wichtig. Wenn es jedoch um die tagtägliche Arbeit geht, so ist KI eigentlich nichts neues: KI ist einfach eine weitere Black Box, die manchmal Fehlverhalten aufweisen kann. So ähnlich wie Menschen halt.