2393417

Forscher: Künstliche Superintelligenz kommt, wann bleibt fraglich

28.11.2018 | 15:02 Uhr | Thomas Hartmann

Eine Umfrage unter KI-Forschern bringt viele Aspekte, aber wenig Klarheit, wann ein Durchbruch mit einer allgemeinen künstlichen Intelligenz zu erwarten ist und was sie bringen wird.

In seinem neuen Buch ” Architects of Intelligence ”  beschreibt Martin Ford seine Interviews und Gespräche mit Top-KI-Forschern über die Frage, wann mit einem Durchbruch zu einer künstlichen Intelligenz, als Artificial General Intelligence (AGI) bezeichnet, die menschlicher Intelligenz zumindest ebenbürtig ist, zu rechnen sein wird. Und was ihre Hauptmerkmale sein könnten, auch in Bezug einer Gefährdung menschlicher Absichten und des gesellschaftlichen Lebens.

Ausführlich berichtet von diesem Buch The Verge , wonach Martin Ford 23 KI- und Zukunftsforscher befragte, von denen aber nur 18 antworteten, zwei von ihnen mit weit auseinander liegenden Resultaten. So rechnet der bekannte KI-Spezialist Ray Kurzweil, derzeit bei Googletätig, dass mit einem solchen Durchbruch zu 50 Prozent bis 2029 zu rechnen sei, wogegen der Roboter-Spezialist und Mitgründer von iRobot Rodney Brooks damit erst ab 2200 rechnet. Der Rest der Vorhersagen lag durchschnittlich um das Jahr 2099, also noch weit entfernt von der Gegenwart. Offensichtlich ist es auch eine Frage des Alters, wie die Einschätzung verläuft. Forscher, die schon länger dabei sind, sind skeptischer als jüngere Kollegen, da die älteren Wissenschaftler und Ingenieure schon häufiger die verschiedenen Aufs und Abs erlebt haben, die mit der KI-Forschung verbunden ist. Vor einigen Jahrzehnten war sie sogar schon einmal totgesagt.

Der recht ausführliche Artikel beleuchtet verschiedene interessante Aspekte. So besteht ein Problem darin, dass derzeitige KI-Systeme noch sehr begrenzt seien, zum Beispiel deswegen, weil sie ihre Datenauswahl bisher von Menschen erhalten anstatt sie selbst zu selektieren. Ein anderer Forscher meint, ein möglicher Durchbruch habe nichts mit der Notwendigkeit noch größerer Datensätze für schnellere Maschinen zu tun, sondern könnte so unerwartet kommen wie einst im Rahmen der Nuklearphysik. Da habe es noch am Vorabend der entscheidenden Entwicklung im Jahr 1933 ein so ausgewiesener Wissenschaftler wie Ernest Rutherford für unmöglich gehalten, dass man jemals Atomenergie aus Atomen herausziehen könne. Am nächsten Tag war es Leo Szilard, der die Rede von Rutherford gelesen hatte, der die nukleare Kettenreaktion durch Neutronen erfunden hatte. So könne man auch bei dem Projekt Superintelligenz/AGI kaum vorhersagen, wann und wie ein Durchbruch geschehe. Was mögliche Auswirkungen auf die Menschheit betrifft, meint der Oxford-Philosoph, Autor von ”Superintelligence” und von Elon Musk sehr geschätzte Nick Bostrom, der die Entwicklung von Super-KI für gefährlicher hält als den Klimawandel, die Gefahr bestehe weniger darin, dass eine Superintelligenz die Menschen versklave oder dass ein plötzlich aufkommendes Bewusstsein der Maschinen zur Rebellion führen könnte. Sondern eher, dass diese AGI völlig andere Ziele als die Menschheit verfolge und diese auch gegen deren Willen durchsetzen könne.

Einig sind sich die Forscher und Philosophen jedoch in einem: Was immer als nächstes mit der künstlichen Intelligenz passiert, es werde sehr disruptiv sein …

Macwelt Marktplatz

2393417