Experten für Künstliche Intelligenz (KI) sind sicher: Nach und nach werden Maschinen den Menschen aus allen Tätigkeiten verdrängen. Welcher Job den Prognosen zufolge wann dran ist.

Das Future of Humanity Institute an der University of Oxford hat Experten für Künstliche Intelligenz (KI) auf den beiden wichtigsten Veranstaltungen zum Thema befragt, bis wann sie erwarten, dass Aufgaben besser durch Maschinen als durch Menschen erledigt werden.

1634 Experten für maschinelles Lernen, die auf der Konferenz Machine Learning im Juli 2015 und bei der Konferenz Neural Information Processing Systems im Dezember 2015 Fachvorträge hielten, wurden von der Universität befragt. Den mittleren Wert ihrer Antworten für verschiedene Tätigkeiten (Median) veröffentlichten die Forscher Ende Mai in einem Paper (Technology Review).

Die befragten Experten sind im Durchschnitt der Meinung, dass Künstliche Intelligenz Menschen bei einer Reihe von Tätigkeiten schon in den kommenden Jahren übertreffen wird – darunter beispielsweise Übersetzungen bis 2024, Schreiben von Aufsätzen fürs Gymnasium bis 2026 und Fahren von Lastwagen bis 2027.

Noch bis 2031 dauert es demnach, bis Tätigkeiten wie der Verkauf im Einzelhandel automatisiert werden. Für dasselbe Jahr rechnen die Experten damit, dass eine KI erstmals in der Lage ist, ein Bestseller-Buch zu schreiben. Erst 2053 rechnen die Experten damit, dass eine KI die Aufgabe eines Chirurgen übernehmen wird. Mit einem Sieg im Brettspiel Go gegen einen menschlichen Meister rechneten die im Jahr 2015 Befragten erst 2027 – das allerdings hat Googles Deepmind-Abteilung in London inzwischen geschafft. In 45 Jahren glauben die Forscher im Mittel, dass KI in so gut wie allen Bereichen besser sein wird als der Mensch. Bei so weitreichenden Prognosen ist allerdings Vorsicht geboten.

Die Oxford-Forscher untersuchten auch, wie sich die Fachkompetenz gemessen an der Anzahl der Zitierungen, Alter und Herkunft der Experten auf ihre Prognose auswirkte. Dabei zeigte sich, dass es zwar keinen signifikanten Unterschied zwischen Alter und Fachkompetenz der Befragten gab – sehr wohl aber einen großen Unterschied bei der Herkunft: Gehen Nordamerikaner im Schnitt davon aus, dass Maschinen Menschen erst in 70 Jahren in allem übertreffen werden, glauben asiatische Experten im Durchschnitt, dass es bereits in 30 Jahren soweit ist.

Wenn Roboter unsere Arbeitsplätze übernehmen, was passiert dann? Diese Frage beschäftigt die gesamte Wirtschaft. „Künstliche Intelligenz will nichts vom Menschen.“ (Tallinn, Skype-Mitgründer). Wenn man Personen von der Produktion entfernt, stellt sich die Frage, was passiert. KI hat vielleicht gar kein Interesse daran, dass der Mensch konsumiert. Das würde das gesamte ökonomische System aus der Bahn werfen. Wenn man den Menschen aus dem ökonomischen Kreislauf herausnimmt, hat man dann überhaupt noch einen Kreislauf? Das ist nicht nur eine Frage des Arbeitsplatzes, sondern stellt auch die Frage des Konsums infrage.

Der kritische Moment ist, wenn man den ersten künstlichen Entwickler hat. Dann stellt sich die Frage, welcher Algorithmus über welchen Algorithmus entscheidet. Das ist reine Spieltheorie. Analog dem Gefangenendilemma. Die Theorie besagt, dass zwei Gefangene einer Straftat beschuldigt werden und sich entscheiden müssen, ob sie sie gestehen oder nicht. Das wiederum hat Einfluss auf die Höhe ihrer Strafe. Was ist die korrekte Entscheidung? Das kann niemand sagen. Algorithmen müssten aber in einer solche Situation eine Entscheidung treffen.

Die Sorge besteht in der Kontrollierbarkeit der Technologie. Es gibt zwei Szenarien: Error- und Terror-Szenarien. In dem einen Szenario gibt es vielleicht Fehler in der Programmierung, die dramatische Konsequenzen haben. In dem anderen werden die Technologien für gefährliche Zwecke ausgenutzt. „Error-Szenarien sind wahrscheinlicher als Terror-Szenarien“ (Tallinn).

Auf die Frage, ob das Militär eine Technologie, wie die künstliche Intelligenz, nicht ausnutzen kann, gibt es auch zu bedenken. Es wird vielleicht ähnlich wie das Wettrüsten um die Atombombe. Die Staaten könnten versuchen, sich gegenseitig mit künstlicher Intelligenz lahmzulegen. Am Ende muss man einfach die Nebenwirkungen kennen, bevor man die Technologie einsetzt. Auch mit der Atombombe gab es ungeklärte Fragen, etwa ob die nuklearen Waffen nicht die Atmosphäre und damit die Erde zerstören. Das sollte man besser vor dem Einsatz klären!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert