Diese Woche habe ich auf Technology Review einen guten Artikel gelesen… der mir gut gefällt, und der (natürlich) ziemlich gut mit meiner Meinung übereinstimmt. Aber endlich mal nicht jemand der einfach nur skeptisch ist, oder negativ, sondern ein Experte, der in dem Feld arbeitet und einfach nicht dem „Hype“ des Themas verfällt.
Essay: Die sieben Todsünden der KI-Vorhersagen – Heise-Verlag / Technology Review
Orginal Article: The Seven Deadly Sins of Predicting the Future of AI – by Rodney Brooks (englisch)
Ein paar Gedanken dazu: Intelligenz an und für sich ist noch gar nicht wirklich verstanden. Das fängt schon damit an, dass es Uneinigkeit darüber gibt ob und welche Tiere, bzw. welches Verhalten von Tieren nun wirklich als „Intelligent“ gilt, und was nur gelernte Reaktionen auf bestimmte Reize sind.
Auch Arthur C. Clarke hat vor vielen Jahren schon geschrieben: „Any sufficiently advanced technology is indistinguishable from magic“. Damit meine ich, dass viele aktuell sicherlich beeindruckende Ergebnisse von „KI“ letztlich doch nur sehr fortschrittliche Technologie ist. Dieser Technologie aber schon Intelligenz zuzuschreiben, ist eine „Meinung“, die ich nicht teile.
Ein wichtiger Aspekt des Essays ist die „Exponentialität“. Wir Menschen tun uns extrem schwer, diese zu verstehen. Nach dem Schach-Computer wurde der Sieg der KI vorhergesagt, obwohl eigentlich klar war, wie wenig das bedeutet. Mit dem Sieg von Google’s AlphaGO nun wieder. Aber auch diese Maschine, so beeindruckend die Technik ist, kann nur GO spielen. Ja, sie ist soweit fortgeschritten, dass sie sich auch andere Spiele beibringen kann. Aber sie ist nach jedem Lernvorgang auf genau die erlernten Regeln limitiert. Während Menschen ohne Probleme innerhalb von Sekunden sich an Regel-Änderungen anpassen können, muss diese Maschine bei Regeländerungen zunächst viele Stunden oder Tage erneut lernen. Unsere menschliche Intelligenz ist exponentiell weiter.
Das macht es für KI so schwierig in der „realen Welt“ zurecht zu kommen, da wir Menschen uns nämlich so wenig an exakte Regeln halten. Siehe Auto-Verkehr… mal ehrlich, wenn du 5 Kilometer zur Arbeit fährst… dann musst du sicherlich mindestens 100 „Regeln“ beachten, und wenn du alles mit zählst, wirst du jeden Tag sehr viele mehr oder weniger kleine Regelverstöße zählen. Die jedoch klaglos verarbeitet werden, sodass fast nie etwas passiert (ok, nur fast). Ich bin skeptisch, ob es wirklich in 5 Jahren richtig selbst fahrende Autos geben wird. Evtl. in klar definierten Bereichen, z.B. limitiert auf Autobahnen.
Damit wir auch noch einen letzten Punkt hätten… nach der Überschätzung, auch die Unterschätzung, bzw. Erwartungshaltung. Von selbst fahrenden Autos wird erwartet, dass sie niemals einen Unfall verschulden werden. Das könnte ihr vergessen. Natürlich wird es Unfälle geben. Menschen sind keine guten Autofahrer: Im Jahr 2017 starben in Deutschland 3.177 Menschen bei Unfällen im Straßenverkehr. Da war noch kein autonomes Fahrzeug unterwegs. Auch wenn es sich nach „kalter Statistik“ anhört … die Punkt wird sein, ob autonome Autos weniger Unfälle verursachen, als Menschen. Und das liegt im Bereich des möglichen.
Fazit: Damit sage ich nicht, dass ich nicht auch von einigen dieser Entwicklungen beeindruckt und teilweise auch begeistert bin. Ich teile aber nicht den „Hype“, dass wir Menschen in 10 Jahren „obsolet“ sein werden, weil 80% der Jobs durch Maschinen erledigt werden. Vielleicht wird dieser Schritt kommen… aber ich bin mir da keineswegs sicher, würde sogar sagen, dass ich es für unwahrscheinlich halte. Und wenn, dann sicher nicht in 10 Jahren, und ich denke auch nicht zu meinen Lebzeiten.