Rechercher dans ce blog

Tuesday, January 11, 2022

Womit sich die Künstliche Intelligenz schwertut - FAZ - Frankfurter Allgemeine Zeitung

Sprache als Ausweis von Intelligenz: Natürlich gibt es inzwischen unzählige faszinierende Fähigkeiten und Fertigkeiten, die den Menschen abheben von allen anderen Lebewesen, die begründen, warum er sich durchgesetzt hat und heute die Welt in einer Art und Weise dominiert, wie das keine Spezies vor ihm und mit ihm vermocht hat. Hervor stach und sticht dabei seine Sprache. Ja, auch Tiere können sich verständigen und darüber organisieren, in kleinen und größeren Gruppen, können vor Gefahr warnen, neue Nahrungsfunde verkünden, Jagdtechniken an Nachkommen weitergeben und sich sogar arbeitsteilig arrangieren. Aber auch das, was Ameisen und Bienen ihren Artgenossen mitteilen können, ist gemessen am Menschen recht schlicht, erschöpft sich im Kern in Botschaften an das nähere Umfeld und einfachen Imitationen. Die unendliche Satzfülle an Informationen über uns und unsere Umwelt, die wir Menschen mit einer begrenzten Zeichenzahl vermitteln können, ist unerreicht: Wir können eben nicht nur klarmachen, wie es uns geht, ob wir Hunger haben oder Sex wollen, sondern mit unserer Sprache hochkomplexe Zusammenhänge beschreiben, Theorien und Ideen darin aufbewahren für kommende Generationen, die sie aufgreifen, selbst nutzen, besprechen und weiterentwickeln können. Der Wissensstand der Menschheit ändert sich permanent – idealerweise wächst er.

Und doch ist es, wie der Historiker Yuval Noah Harari einmal ausgeführt hat, womöglich eine andere Besonderheit der menschlichen Sprache, die sie und ihren Verwender strukturell bevorteilt: „Das Einmalige ist, dass wir uns über Dinge austauschen können, die es gar nicht gibt. Soweit wir wissen, kann nur der Sapiens über Möglichkeiten spekulieren und Geschichten erfinden.“

Das hat gravierende Konsequenzen. Menschen können Mythen erfinden und Legenden bilden, fantastische Vorstellungen in Worte fassen. „Aber“, fährt Harari fort und das ist für ihn die dramatische Folge dessen, „mit der fiktiven Sprache können wir uns nicht nur Dinge ausmalen – wir können sie uns gemeinsam vorstellen.“ Und damit Ziele in ferner Zukunft vorgeben, Sinn stiften und Kooperation ermöglichen zwischen Hunderten, Tausenden oder zig Millionen hierdurch Gleichgesinnten, die sich persönlich gar nicht zu kennen brauchen.

F+Newsletter – das Beste der Woche auf FAZ.NET

Samstags um 9.00 Uhr

ANMELDEN

Harari führt wesentlich darauf zurück, dass es soziokulturelle Konstrukte wie Glaubensgemeinschaften, Nationen, Konzerne oder Geld überhaupt gibt und dass sie reale Macht haben oder bedeutsam sind. Diese Fähigkeit zur kollektiven Fiktion macht den Menschen zugleich ungemein flexibel und anpassungsfähig. Tiere ändern ihr Sozialverhalten nicht spontan grundlegend, sie sind an die genetische Evolution gebunden – der Mensch ist anders. Denker Harari bringt das so auf den Punkt: „Da menschliche Zusammenarbeit in großem Maßstab auf Mythen basiert, kann man die Form der Zusammenarbeit neu gestalten, indem man die Mythen verändert und neue Geschichten erzählt. Unter den richtigen Umständen können sich diese Mythen sogar sehr schnell ändern. Im Jahr 1789 schalteten die Franzosen beispielsweise quasi über Nacht vom Mythos des „Gottesgnadentums der Könige“ auf den Mythos der „Herrschaft des Volkes“ um.

Das Potential der Mustererkennung ist längst nicht erschöpft

Und noch etwas kann der Mensch aufgrund seiner Sprach- und Vorstellungsfähigkeit: Er kann darüber nachdenken, wie sich sein Leben oder das Leben anderer Menschen verändert hätte, wenn ein bestimmtes Ereignis anders verlaufen wäre. Er kann rückblickend einen fiktiven persönlichen Lebensverlauf konstruieren für den Fall, dass er Physik und nicht Jura studiert hätte, oder einen fiktiven Fußballspielverlauf dafür, dass ein wichtiger Spieler eben nicht die Rote Karte bekommen hätte, oder einen fiktiven anderen Verlauf der europäischen Geschichte für den Fall, dass die Französische Revolution überhaupt nicht stattgefunden hätte. Er kann nach vorne gerichtet langfristige Lebenspläne schmieden und schließlich sogar technologisch und sozial ins extrem Irreale hineindenken und Alternativen ersinnen – die Science Fiction als äußerst einflussreiche Kunstform steht dafür in vielerlei Variationen.

Nein, nicht immer hilft diese Fähigkeit weiter. Mitunter erschwert sie, sich mit Geschehenem abzufinden, ermöglicht zu lamentieren, seinen Frust darüber drückte der damalige SPD-Kanzlerkandidat Peer Steinbrück bekanntlich mit dem Ausspruch „Hätte, hätte, Fahrradkette“ aus. Gleichwohl ist das dem zugrunde liegende Denkvermögen mächtig, weil es umfasst, logisch zu schlussfolgern, Ursache und Wirkung in vielen Fällen voneinander unterscheiden und klar zuordnen zu können und hierdurch ein Verständnis über die Welt zu erlangen, wie das bislang keine andere bekannte Form von Intelligenz vermag. Computer jedenfalls würden uns darum beneiden – wenn sie das denn könnten.

Gerade auch unter Informatikern ist darum das Interesse an diesem Intelligenz-Merkmal in der jüngeren Vergangenheit noch einmal gestiegen. Bernhard Schölkopf, Direktor am Max-Planck-Institut für intelligente Systeme in Tübingen und einer der führenden Fachleute für Künstliche Intelligenz, gehört dazu. Er antwortete im Gespräch mit dieser Zeitung vor nicht allzulanger Zeit auf die Frage, was ihn als Forscher besonders beschäftige, mit einem Wort: Kausalität. Das klingt zunächst eher sperrig als spannend, dahinter verbirgt sich allerdings eine gewaltige Herausforderung für diejenigen, die an immer ausgefeilteren Lernalgorithmen arbeiten und versuchen, Künstliche Intelligenzen der Leistungsfähigkeit des menschlichen Gehirns anzunähern.

Schach, Go, Poker

Computer können heute Erstaunliches, der Fortschritt in der Künstlichen Intelligenz beeindruckt längst nicht mehr nur Eingeweihte, sie gilt schon jetzt als Schlüsseltechnologie dieses Jahrhunderts. Mithilfe zumal der am Lernen orientierten KI-Verfahren gelang es, Computerprogramme zu konstruieren, die übermenschlich gut Schach, Go oder Poker beherrschen, Spiele, die wir mit Intelligenz assoziieren. Zudem entstanden allgemeiner KI-Systeme, die außergewöhnlich gut Muster in riesigen Datenmengen erkennen und auswerten und dann beispielsweise passende optimierte Ergebnisse auf eine Suchanfrage liefern und entsprechende Werbung einblenden, Filme oder Bücher empfehlen, Nachrichten gewichten, Freunde vorschlagen, Grippewellen prognostizieren, Knappheiten andeuten, sich ändernde Konsumgewohnheiten signalisieren, Texte übersetzen, gesprochene Sprache verarbeiten, Wissensfragen beantworten, Gedichte schreiben oder Objekte erkennen.

Wie sehr sich das lohnt, zeigt der kommerzielle Erfolg von Internetunternehmen wie Alphabet (Google und Youtube), Amazon, Meta (Facebook) oder Netflix, deren Angebote Abermillionen Menschen täglich nutzen, weil sie diese brauchbar und bequem finden. Die Tech-Konzerne mobilisieren Milliardenbeträge, um KI-Könner anzustellen und mit einer adäquaten Recheninfrastruktur auszustatten; sie investieren sogar in Grundlagenforschung und konkurrieren auch in diesem Bereich mittlerweile mit internationalen Spitzenuniversitäten. Die auf immer versierteren sogenannten künstlichen neuronalen Netzen basierenden KI-Systeme entdecken indes im Kern Korrelationen und keine Kausalitäten und geben davon ausgehend statistische Vorhersagen ab. Sie können beispielsweise Wahrscheinlichkeiten ermitteln dafür, dass jemand, der die ersten beiden Teile der „Herr der Ringe“-Trilogie angesehen hat, auch den dritten gucken möchte – und diesen dann empfehlen. Oder sie bemessen, wie Käufe verschiedener Produkte zusammenhängen, etwa, dass ein Kunde, der eine Zahnbürste erwirbt, häufig auch Zahnpasta kauft. Und natürlich können sie das in viel komplizierteren und wesentlich weniger intuitiven Beispielen als diesen beiden und mit deutlich mehr Produktarten, sie können Tages- und Jahreszeiten einbeziehen, das Kundenalter, aktuelle Wetterverhältnisse und vieles andere mehr. Sie entdecken so auch statistisch signifikante Verhaltensmuster, die der Mensch sonst nicht herausgefunden hätte, weil er nicht nur mit der Fülle der Datenpunkte auch unter Einsatz hergebrachter Hilfsmittel damit schlicht überfordert gewesen wäre. Dabei handelt es sich aber eben nicht um kausale Ketten. Daraus geht nicht hervor, dass ein Kunde Zahnpaste gekauft hat, weil er eine Zahnbürste gekauft hat; vermutlich und hoffentlich gibt es in diesem konkreten Fall vielmehr einen gemeinsamen Grund für beide Käufe – das sehr berechtigte Interesse daran, Karies zu vermeiden und nicht aus dem Mund zu stinken. Gleichwohl ist allein das Potential der bestehenden KI-Lernverfahren gewaltig und längst nicht ausgeschöpft. Die Rechenleistung wächst weiter, Arten und Anzahl der Sensoren ebenso, infolgedessen vergrößert sich auch die Menge der möglichen Beobachtungen über nahezu alles rasant und permanent. Und damit auch das Spektrum möglicher auf Mustererkennung im weitesten Sinne basierender Anwendungen.

Bröckelt sogar ein zentrales Fundament des Liberalismus?

Das ist unternehmerisch hochinteressant, aber auch darüber hinaus. Die Niederlage des Go-Spitzenspielers Ke Jie gegen das vom Unternehmen Deepmind entwickelte Programm AlphaGo verfolgten Millionen Chinesen mit, und auch die Führung in Peking – der ehemalige Google-China-Chef und KI-Unternehmer Kai-Fu Lee deutet dieses im Mai 2017 ausgetragene Match als „Sputnik-Moment“, der das riesige Land auf einen Wettlauf zumal mit den Vereinigten Staaten eingeschworen habe dahin gehend, wer in dieser Technologie dominiert. Künstliche Intelligenz ist jedenfalls längst nicht mehr nur Teil der Wirtschafts- und Technologiepolitik von Washington, über London, Paris, Moskau und Peking bis nach Tokio, sondern auch eine zunehmend relevante Größe in der Außen- und Verteidigungspolitik – die zunehmende politische Einflussnahme auf die internationalen Hochtechnologie-Wertschöpfungsketten ist die gegenwärtig vielleicht sichtbarste Folge.

An epochalen Warnungen innerhalb und außerhalb der KI-Disziplin mangelte es seither nicht. Der frühere amerikanische Außenminister Henry Kissinger erschreckte sich auf einer Konferenz, auf der er erfuhr, wie AlphaGo das Go-Spielen erlernte (indem es sich selbst trainierte), derart, dass er daraufhin im Magazin „The Atlantic“ einen Artikel unter der Überschrift „Wie die Aufklärung endet“ veröffentlichte. Er fragte darin, was folgt, wenn sich selbstlernende Maschinen Wissen aneignen auf für Menschen nicht oder kaum nachvollziehbare Weise. Und ob es der Menschheit dereinst wohl so ergehen werde wie den Inkas, als diese mit der spanischen Zivilisation konfrontiert wurden. Kissinger äußerte, wie er selbst und andere anmerkten, seine Befürchtungen als jemand, der nicht über ausgewiesene informationstechnologische Expertise verfügt – aber andererseits als erfahrener Gelehrter, der darauf verweisen kann, ein feines Gespür für Macht und sich ändernde Machtmechanismen zu haben.

Der Politologe Mark Leonard, Direktor des European Council on Foreign Relations, spekuliert sogar, dass ein zentrales Fundament bröckeln könnte, auf dem Aufstieg und Erfolg des Liberalismus fußen, nämlich die aus langjähriger Praxis gut begründbare Idee, dass die Menschen schon selbst wissen, was am besten für sie ist. Er fragt nüchtern-neutral, ob das so bleiben wird angesichts der verfügbaren Datenmengen, die Staaten und Unternehmen nie dagewesene Einsichten in einzelne Individuen gewähren. „In der Vormoderne galt Gott als die letzte Quelle der Autorität. Im Säkularismus war es der Staat. Im Liberalismus war es das Individuum. Aber in der Zukunft wird der Algorithmus souverän sein. Mit Künstlicher Intelligenz ausgestattete Computer könnten schon bald eine Fülle von Daten interpretieren, um radikale Entscheidungen über alle Aspekte unseres Lebens zu treffen – in einigen Bereichen ist dies schon der Fall.“ Aus weniger abstraktem Antrieb schloss sich schon vor Jahren eine Gruppe von Fachleuten um den damals noch lebenden Physiker Stephen Hawking, seinen Kollegen Max Tegmark und den KI-Spezialisten Stuart Russell zusammen, um eindringlich davor zu warnen, tödliche autonome Waffen zu entwickeln und zu verbreiten. Tegmark bekräftigte unlängst, was droht, wenn solche Systeme leicht zugänglich sein sollten nicht nur für das Militär, sondern insbesondere für die organisierte Kriminalität. „Das sind Massenvernichtungswaffen“, sagte er im Interview mit der F.A.Z., und er fügte hinzu: „Ein Slaughterbot-Schwarm wäre wie Adolf Eichmann auf Steroiden, der auch den grausamsten Befehl ohne jegliche moralische Bedenken loyal ausführt.“

Natürlich warnen sie alle, Tegmark wie Leonard, letztlich auch deshalb, weil es genau so nicht kommen muss. Weil der weitere Einsatz dieser Technologie nicht naturgesetzartig festgeschrieben ist, sondern von den auch heute getroffenen Entscheidungen abhängt, auf die sie Einfluss nehmen möchten – immer schon gilt dabei eine wechselseitige Beziehung: Der Mensch passt Technik an sich an, und er passt sich an technische Möglichkeiten an. Zudem ist dessen ungeachtet längst nicht ausgemacht, wie sich die Künstliche Intelligenz weiterentwickeln wird.

Die drei Verständnisformen auf der „Leiter der Kausalität“

Fachleute halten für durchaus denkbar, dass die existierenden, auf dem Lernen fußenden KI-Systeme noch merklich vielseitiger und intelligenter werden können allein dadurch, dass sie ständig größer werden. Im vergangenen Jahr haben riesige künstliche neuronale Netze für Schlagzeilen gesorgt und auch Fachleute verblüfft, weil ihr Wissen scheinbar nicht hoch spezialisiert ist. Eines stammt von der kalifornischen KI-Unternehmung OpenAI und verbirgt sich hinter dem Kürzel GPT 3, ein anderes ist der von Google konstruierte „Switch Transformer“, ein drittes das von der chinesischen Beijing Academy of Artificial Intelli­gence (BAAI) präsentierte KI-System Wu Dao 2.0 – sie verfügen teils über mehr als eine Billion Parameter, sozusagen kleinste Stellschrauben, die ihre Lern- und Leistungsfähigkeit mitbestimmen.

Mehr Rechenleistung und noch mehr Daten werden nach einhelliger Auffassung allein aber nicht zum Ziel führen, zumindest dann nicht, wenn dies darin bestehen sollte, Künstliche Intelligenz wirklich am menschlichen Gehirn zu messen. Dafür braucht es offenkundig auch andere Lernalgorithmen, solche etwa, die mit weniger Daten auskommen – so wie ein Kleinkind nicht Tausende Bilder von Elefanten ansehen muss, um zu erfassen, wie ein Elefant aussieht, und ihn von anderen Tierarten zu unterscheiden.

Nicht nur Max-Planck-Forscher Schölkopf setzt indes inzwischen zunehmend darauf, die Forschung über kausales Schließen, über das Identifizieren von Ursache-Wirkungs-Ketten, stärker mit den Methoden des maschinellen Lernens zu verknüpfen. Gemeinsam mit anderen Fachleuten veröffentlichte er im vergangenen Jahr einen Aufsatz unter der Überschrift „Towards Causal Representation Learning“, in dem er darlegt, wie Wissen nicht nur über die beobachteten Daten, sondern auch über die Prozesse, wie diese Daten entstanden sind, Künstliche Intelligenz mit einem tieferen Verständnis hervorbringen könnte.

Eine Herausforderung – nicht nur für Computer

Schon lange für überfällig hält das wiederum der mit dem Turing Award ausgezeichnete Informatiker Judea Pearl. Er hat eine dreistufige „Leiter der Kausalität“ konzipiert, um verschiedene Verständnisformen voneinander abzugrenzen. Auf der ersten Stufe verortet er „Assoziation“, etwa, die Umwelt passiv zu beobachten und dabei beispielsweise zu lernen, dass Menschen häufig einen aufgespannten Regenschirm über ihren Kopf halten, wenn es regnet. Auf der zweiten Stufe verortet er „Eingriffe“ in die Umwelt, etwa, selbst einen Regenschirm aufzuspannen und über den Kopf zu halten und daraus zu lernen, dass er davor schützt, nass zu werden. Auf der dritten und höchsten Stufe schließlich verortet er „Kontrafaktisches“, die Fähigkeit zu Spekulation und Imagination, „Was wäre, wenn . . .“-Fragen stellen und sie verständig beantworten zu können – im Regenschirm-Beispiel also etwa erschlossen zu haben, dass jemand, der seinen Regenschirm einklappt, damit nicht den Regen beenden, sondern im selben stehen wird. Pearl, der sich dabei ausdrücklich auf die Hypothese des Historikers Harari bezieht, sieht diese dritte Stufe auf seiner Kausalitäts-Leiter als maßgeblich an für die Innovations- und Weiterentwicklungskraft des Menschen und dafür, dass er sich vor vielen Tausend Jahren von allen anderen Lebewesen in dieser Hinsicht absetzen konnte – weil ihm das eine bessere und effizientere Kommunikation und Kooperation mit anderen ermöglichte, in größeren Gruppen, und eine langfristigere Planung des individuellen und kollektiven Lebens.

Und wie können Computer kausales Wissen erwerben? „Dies ist nach wie vor eine große Herausforderung, die zweifellos eine komplizierte Kombination von Inputs aus aktiven Experimenten, passiver Beobachtung und (nicht zuletzt) dem Programmierer erfordert – ähnlich dem Input, den ein Kind erhält, wobei der Programmierer durch Evolution, Eltern und Gleichaltrige ersetzt wird“, schrieb Pearl darüber einmal. Eine große Herausforderung bleibt das demzufolge aller Erfahrung nach nicht nur für Computer, möchte man ergänzen.

Adblock test (Why?)


Womit sich die Künstliche Intelligenz schwertut - FAZ - Frankfurter Allgemeine Zeitung
Read More

No comments:

Post a Comment

Ukraine-Krieg im Ticker: DAX schließt tief im Minus -- US-Börsen schließen uneinheitlich -- Siemens Energy neue Struktur -- CTS Eventim macht Gewinn -- ADLER Group, Lufthansa, Snap, Zoom im Fokus - finanzen.net

Der deutsche Aktienmarkt brach seine Erholung am Dienstag bereits wieder ab. Der DAX fiel bereits zur Eröffnung zurück und bewegte sich au...