Kolumne | Holger Schulze

BRAUCHT KÜNSTLICHE INTELLIGENZ ETHIK?

Seit einigen Jahren wird Künstliche Intelligenz in technischen Systemen immer leistungsfähiger, doch fundamentale Probleme bestehen noch immer.

Seite 1/1 2 Minuten

Seite 1/1 2 Minuten

Kennen Sie das auch? Dieses zwiespältige Gefühl zwischen Faszination und Besorgnis, das man oft empfindet, wenn über neue Technologien berichtet wird? Sicherlich sind wir in Deutschland derartigen Entwicklungen gegenüber oft viel zu skeptisch und bremsen dadurch nutzbringenden Fortschritt unnötig aus. Bei einer dieser Technologien, die gerade im Begriff ist, in immer mehr Lebensbereiche vorzudringen, lohnt es sich aber, einmal genauer hinzusehen. Die Rede ist von Künstlicher Intelligenz (KI). Heutzutage versteht man unter KI meistens Systeme, in denen sogenannte künstliche neuronale Netze arbeiten, die mit „deep learning“-Verfahren „trainiert“ wurden. Solche Netze sind denen in echten Gehirnen nachempfunden, bestehen also aus (simulierten) Neuronen und synaptischen Verbindungen zwischen diesen Neuronen.

Was kann und was darf eine Maschine entscheiden?

Solche Netze kann man dann trainieren, zum Beispiel Verkehrsschilder zu erkennen, Katzen von Hunden zu unterscheiden, oder Computerspiele zu spielen – in vielen Bereichen kommen die Maschinen den menschlichen Leistungen erstaunlich nahe oder übertreffen sie sogar. Schon ist die Euphorie groß, die Systeme könnten uns demnächst eine Fülle von Tätigkeiten abnehmen. Autonom fahrende Autos oder Pflegeroboter erscheinen vielen als technisch längst machbar. Oberflächlich betrachtet stimmt das auch, wären da nicht eine Reihe ungelöster Probleme und Schwächen, die diese KI immer noch besitzen. Am Beispiel des autonomen Fahrens will ich dies kurz erläutern. Zunächst einmal ist das erwähnte Training mittels deep learning ungeheuer aufwendig: Im Vergleich zum Menschen werden hier zigtausende Beispielbilder benötigt, um darauf letztlich etwas richtig erkennen zu können, ein Straßenschild etwa.

Nun, dank des Internets gibt es diese Fülle von Bildern, und mein Auto etwa erkennt, wie schnell ich gerade fahren darf. Aber funktioniert das wirklich zuverlässig? Wie unlängst gezeigt werden konnte, lassen sich die existierenden Systeme leicht täuschen, etwa dadurch, dass auf das Verkehrsschild ein kleiner Sticker geklebt wird. Dann kommt plötzlich etwas ganz anderes heraus, eine Banane wird zum Beispiel als Toaster erkannt. Solange Sie als Fahrer noch selbst entscheiden, wie schnell sie fahren, ist das kein Problem. Was aber, wenn wir beginnen, den Maschinen selbst die Entscheidungskompetenz zu übertragen?

Wie soll ein autonom fahrendes Auto entscheiden, wenn direkt vor ihm ein Kind auf die Straße springt, es zwar noch ausweichen könnte, aber nur, wenn es in Kauf nimmt, statt des Kindes drei Senioren zu überfahren? Solche ethischen Fragen im Umgang mit intelligenten Maschinen sind noch nicht einmal ansatzweise geklärt, ganz zu schweigen von Haftungsfragen im Schadensfall. Der technische Fortschritt geht weiter und sicherlich werden Autos sich schon bald nicht mehr durch Aufkleber täuschen lassen. Die ethischen Fragen im Zusammenhang mit diesen Maschinen müssen aber wir Menschen klären, bevor wir sie auf uns loslassen, finden Sie nicht auch?

Den Artikel finden Sie auch in die PTA IN DER APOTHEKE 05/19 auf Seite 14.

Zur Person

Prof. Dr. Schulze Hirnforscher
Holger.Schulze@uk-erlangen.de 

Prof. Dr. Schulze ist Leiter des Forschungslabors der HNO-Klinik der Universität Erlangen-Nürnberg sowie auswärtiges wissenschaftliches Mitglied des Leibniz-Instituts für Neurobiologie in Magdeburg. Seine Untersuchungen zielen auf ein Verständnis der Neurobiologie des Lernens und Hörens.
www.schulze-holger.de 

×