Definitionen für „Künstliche Intelligenz“ (KI) gibt es viele. Kein Wunder, steckt KI als Grundlagentechnologie doch inzwischen in so vielen Bereichen unseres Lebens. Ob im Autopilot des Autos, im Sprachassistenten auf dem Smartphone, in Empfehlungen von Anwendungen wie Spotify und Netflix oder in Vorschlägen bei Suchergebnissen – KI ist nicht mehr aus unserem Alltag wegzudenken.
Befragt man heute Menschen über das Thema Künstliche Intelligenz, so zeigt sich, dass Wissen und Akzeptanz über KI zugenommen haben. Doch was genau „Künstliche Intelligenz“ eigentlich ist, das können nur die wenigsten beantworten. Dieser Artikel liefert eine Definition von KI, erklärt, weshalb KI als Blackbox gilt, warum der Turing-Test kein guter Intelligenztest für KI ist, unterscheidet die verschiedenen Arten von KI, beleuchtet die Geschichte der KI bis zum heutigen KI-Höhenflug und wirft einen Blick in die Zukunft Künstlicher Intelligenz.
Künstliche Intelligenz – Begriffsklärung, Grundlagen und Funktionsweise
Trotz aller Versuche: Eine eindeutige und simple Definition für den Begriff „Künstliche Intelligenz“ gibt es bis heute nicht. Das liegt schon alleine daran, dass nicht einmal der Begriff „Intelligenz“ abschließend definiert ist.
Einige Forschende gehen beispielsweise davon aus, dass Intelligenz ein Bewusstsein voraussetzt, und das lässt sich – zumindest in der Gegenwart – für eine „Künstliche Intelligenz“ ausschließen. Daher spricht man in Fachkreisen häufig von komplexen Algorithmen, die zur Lösung spezieller Fragen entwickelt und trainiert werden.
Doch den KI-Begriff alleine auf die Algorithmen zu beschränken, würde der Sache nicht gerecht. Vielmehr spielen weitere Faktoren eine Rolle, unter anderem die Rechenleistung oder die Qualität der Daten, mit denen die KI trainiert wird. Fakt ist, dass Algorithmen anhand von Beispielen lernen, Aufgaben eigenständig auszuführen, indem sie in einer für Menschen oft unüberschaubaren Fülle an Daten Muster erkennen. Unter anderem aus diesem zielgerichteten Datenlernen resultiert bei KI der Intelligenzbegriff. Künstliche Intelligenz beschreibt also als Sammelbegriff Algorithmen, Trainings- und Lernprozesse und die Datenauswahl. Aus dieser Kombination entstehen Programme für spezialisierte Anwendungsfälle, die sich selbst verbessern und teilweise ihren eigenen Code generieren können, anstatt dass ein menschlicher Programmierer Zeile für Zeile eingeben muss.
Künstliche Intelligenz: Lernen mit neuronalen Netzen
Doch wie erfolgt dieses Lernen bei der KI genau? Dem künstlichen Lernprozess des Algorithmus liegt eine Struktur zugrunde, die sich zumindest im Ansatz am menschlichen Gehirn orientiert: Neuronale Netze, die sich immer weiter verzweigen und verknüpfen, neue Verbindungen eingehen und daraus selbständig Schlüsse ziehen, um Probleme zu lösen.
Doch während das menschliche Gehirn nur wenige Beispiele braucht, um solche Verknüpfungen herzustellen, zum Beispiel, um zu erkennen, ob ein Objekt auf einem Bild ein Hund oder eine Katze ist, benötigt ein Algorithmus unzählige Daten, um Muster zu erkennen und die richtigen Schlüsse zu ziehen. Wenn er aber erst einmal mit ausreichend Material „gefüttert“ wurde, ist er dem Menschen oft deutlich überlegen – zumindest bei sehr konkreten, engen Fragen und wenn eine hohe Anzahl an Daten verarbeitet werden soll.
Warum KI auch als Blackbox bezeichnet wird
Diese neuronalen Netze sind keine Erfindung der jüngeren Vergangenheit: Sie existieren schon seit rund 50 Jahren. Ihr Potenzial können sie jedoch erst so richtig entfalten, seit es hochleistungsfähige Computer und große Datenmengen gibt, aus denen Muster erkennbar werden. Bei der „Datenfütterung“, also beim Trainieren der Algorithmen, nehmen die neuronalen Netze Daten auf und leiten ihre einzelnen Elemente durch verschiedene Schichten künstlicher Neuronen.
Je nach Trainingsziel werden einzelnen Aspekten der Daten Gewichtungen hinzugefügt. Im Verlauf dieses Prozesses modifiziert die KI diese Gewichtungen kontinuierlich, um ein passend zur menschlichen Vorgabe optimales Ergebnis zu erzielen.
Der Mensch kann schon nach kurzer Zeit nicht mehr nachvollziehen, weshalb die KI welche Modifizierungen vornimmt. Daher spricht man im Zusammenhang mit Künstlicher Intelligenz oft von einer „Blackbox“: Die inneren Prozesse und wie genau eine KI zu einer Entscheidung kommt, sind für Menschen schwierig bis gar nicht nachvollziehbar.
Kritik am Turing-Test als Intelligenztest für KI
Mitte des 20. Jahrhunderts hatte der damals 38-jährige Informatiker Alan Mathison Turing eine Vision: Er glaubte, dass es schon zur Jahrtausendwende gelänge, Computer so zu programmieren, dass ein Mensch mit hoher Wahrscheinlichkeit nicht mehr sagen könne, ob er mit einem anderen Menschen oder einer Maschine spricht. Höchstens 70 Prozent würde dann die Chance betragen, Mensch und Maschine korrekt zu identifizieren.
Seiner Zeit weit voraus, entwickelte er daraufhin eine Theorie, um festzustellen, ob ein Computer ein dem Menschen ebenbürtiges Denkvermögen haben kann. Seine Idee, die er „imitation game“ nannte und die erst später den Namen „Turing-Test“ erhielt, bestand darin, einen Menschen über eine Tastatur eine Unterhaltung mit zwei ihm nicht bekannten Gesprächspartnern führen zu lassen, die er weder sehen noch hören kann.
Doch nur einer der Gesprächspartner ist ein Mensch, der andere eine Maschine. Kann die Person am Ende nicht eindeutig sagen, wer von den beiden eine Maschine ist, kann dem Computer ein dem Menschen ebenbürtiges Denkvermögen bescheinigt werden.
Heutzutage steht der Turing-Test in der Fachwelt in der Kritik und es wird bezweifelt, dass er wirklich Aussagekraft hat, da KI-Systeme über geschickte Täuschung Menschen leicht in die Irre führen können, ohne selbst intelligent zu sein.
Tatsächlich bestand 2014 das Computerprogramm Eugene den Turing-Test, indem es sich als 13 Jahre alter Junge mit Englisch als Zweitsprache ausgab. Unverständliche Antworten schrieben die menschlichen Gesprächspartner daher dem jungen Alter und fehlendem Sprachwissen zu – und nicht der KI-Herkunft.
Für den bekannten KI-Wissenschaftler Sam Altman von OpenAI wäre es daher eine größere Intelligenzdemonstration, wenn Künstliche Intelligenz ein mathematisches Theorem beweisen würde, statt den Turing-Test zu bestehen.
Welche Arten von KI gibt es?
Im allgemeinen Sprachgebrauch haben sich die Begriffe „Starke KI“ und „Schwache KI“ durchgesetzt. Doch worin begründet sich diese Unterscheidung?
Zukunftsvision: Starke KI
Maria, die Menschmaschine in Fritz Langs „Metropolis“, der Terminator oder HAL aus „2001: Odyssee im Weltraum“ sind Visionen einer „starken KI“, die mit der Realität der Künstlichen Intelligenz gegenwärtig wenig zu tun haben. Gleichwohl ist das erklärte Ziel vieler KI-Forschenden eine starke KI. Die soll eines Tages, ähnlich wie ein Mensch, verschiedene Aufgaben bewältigen und Wissen zwischen Bereichen übertragen können, um auch solche Fragen zu lösen, für die sie nicht explizit trainiert wurde.
Eine weitere Steigerung zur starken KI wäre die Super-KI, die sich selbst verbessert. An diesem Punkt wäre die sogenannte Singularität erreicht, eine Superintelligenz, die dem Menschen uneinholbar enteilt und unser aller Leben auf die eine oder andere Art grundlegend verändert.
Die Gegenwart: Schwache KI
Einstweilen jedoch haben wir es, wenn wir von KI sprechen, mit „schwacher KI“ zu tun, das heißt mit Algorithmen, die ausschließlich für eine Aufgabe trainiert werden, zum Beispiel dafür, unschlagbar gut Schach zu spielen.
Zur schwachen KI zählen auch komplexe Systeme, etwa für Big Data Analytics, mit denen Unternehmen anhand von großen Datenmengen Trends und Präferenzen für bessere Geschäftsentscheidungen entdecken können.
Andere KI-Systeme werden trainiert, um Bilder und Texte zu analysieren und sogar selbst zu generieren – eine zweifelhafte Errungenschaft, die in sogenannten „Deepfakes“ gipfelt, wenn etwa Bilder von Menschen geschaffen werden, die es gar nicht gibt.
Erste multimodale KI-Systeme, die etwa mit Bild- und Textdaten gleichzeitig trainiert werden und diese verknüpfen, können zum Beispiel zu einem Bild passende Untertitel generieren. Diese neuartigen Systeme weisen den möglichen Weg hin zu einer starken KI.
Beispiele für KI im Alltag
Sei es auf dem Smartphone, am Desktop oder auf dem Tablet – das Internet steckt voller Daten und Algorithmen. Als Grundlagentechnologie steuert Künstliche Intelligenz unzählige Prozesse. Suchassistenten, Spamfilter, Navigation, Sprachsteuerung, Kaufempfehlungen und vieles mehr basieren auf Machine Learning. Dank intelligenter Übersetzungsprogramme erschließen wir uns im Handumdrehen fremdsprachige Texte.
KI ist aus unserem Alltag kaum noch wegzudenken. Ein Blick auf einige Beispiele für Künstliche Intelligenz im Alltag reicht aus, um zu erkennen, dass unser Leben ohne KI völlig anders aussähe.
Ein Blick zurück: Künstliche Intelligenz im Wandel der Zeit
Wie hat das alles eigentlich angefangen? Und wann? Als Geburtsstunde der KI könnte man die Erfindung eines gewissen Alan Turings aus dem Jahr 1936 bezeichnen, von dem später noch die Rede sein wird. Der britische Informatiker bewies mit seiner „Turing Machine“, dass eine Rechenmaschine kognitive Prozesse ausführen kann, wenn man sie in einzelne Schritte aufteilt und mithilfe eines Algorithmus darstellt. Die Wissenschaftler Walter Pitts und Warren McCulloch zeigten 1943, dass Nervenzellen, wenn man sie zu Netzwerken zusammenschaltet, logische Operationen (UND, ODER, NICHT sowie Kombinationen daraus) durchführen können.
Doch leistungsfähige Rechner, wie wir sie heute kennen, gab es zu dieser Zeit noch nicht, und erst 1951 sollte der Computer „Ferranti Mark 1“, die erste nennenswerte Aktivität ausführen, bei der man von Künstlicher Intelligenz hätte sprechen können: Er spielte Dame, wenn auch schlecht.
Der eigentliche Begriff „Künstliche Intelligenz“ entstand erst 20 Jahre später, als sich im US-Bundesstaat New Hampshire Wissenschaftler am Dartmouth College versammelten, um darüber zu diskutieren, ob Maschinen einzelne Aspekte menschlicher Intelligenz simulieren können. Einer von ihnen, der Programmierer John McCarthy, schlug dabei vor, von „Künstlicher Intelligenz“ zu sprechen.
Rosenblatt und das erste neuronale Netz
Grundlage aller unter dem Oberbegriff „Künstliche Intelligenz“ zusammengefassten intelligenten Systeme (Algorithmen, Machine Learning, Natural Language Processing (NLP), Deep Learning etc.) sind neuronale Netze, angelehnt an das menschliche Gehirn. Das erste, stark vereinfachte, neuronale Netz stellte 1957 der Psychologe und Informatiker Frank Rosenblatt vor: Sein „Perzeptron“ besteht aus einem einzelnen künstlichen Neuron, das unter Berücksichtigung von Gewichtungen bestimmte Inputs in einen binären Output umrechnet.
Klassische KI und KI-Winter
Vielleicht wäre alles anders gekommen, wenn nicht zeitgleich mit der Entwicklung von künstlichen neuronalen Netzen als Grundlage der KI ein anderer Weg in der KI-Forschung beschritten worden wäre: die symbolische oder auch klassische KI (englisch: GOFAI – Good Old Fashioned Artificial Intelligence). Bei diesem Ansatz wird Intelligenz darauf reduziert, abstrakte Symbole zu verarbeiten.
Die Idee: komplexe Regeln auf einfache Inputs anwenden, um zu intelligenten Ergebnissen zu kommen. Diese Betrachtungsweise der KI hatte großen Einfluss auf die KI-Forschung, die sich aus heutiger Sicht aber in eine falsche Richtung entwickelte.
Denn die Grundlage der klassischen KI ist nicht das autonome Lernen. Es sind große Datenmengen und eine aufwendige Programmierung. Und auch wenn die GOFAI-Verfechter passable Ergebnisse liefern konnten, blieben diese weit hinter den Erwartungen zurück.
Das hatte Folgen: Insbesondere die US-amerikanische DARPA (Defense Advanced Research Projects Agency) zog sich aus der KI-Finanzierung zurück, sodass Anfang der 70er Jahre des letzten Jahrhunderts die gesamte KI-Forschung nahezu zum Stillstand kam. Bildlich gesprochen setzte damit der erste „KI-Winter“ ein, der bis in die 80er Jahre andauerte. Nach einem zwischenzeitlichen Hoch Anfang der 90er Jahre wurden die Erwartungen vieler Investoren erneut enttäuscht. Es folgte der zweite KI-Winter.
Aufschwung und Aufstieg der Künstlichen Intelligenz
Erst Ende der 90er Jahre setzte in Sachen KI ein Aufschwung ein. Berühmte Beispiele aus dieser Zeit sind „Deep Blue“ und der „RoboCup“ (beide 1997). Die Forschung bearbeitete das Feld zunächst jedoch nicht mehr unter der Bezeichnung „Künstliche Intelligenz“, vielmehr sprach man in Fachkreisen jetzt von „Knowledge Engineering“ (Wissensverarbeitung). Parallel dazu kam dem „Machine Learning“ eine größere Aufmerksamkeit zu.
Von einem echten Aufstieg der KI kann erst ab ca. 2010 gesprochen werden. Der Grund: Erst jetzt standen alle notwendigen Bausteine zur Verfügung, um das Konzept der neuronalen Netze auszureizen und KI auch in kommerzielle Anwendungen zu bringen: leistungsfähige Soft- und Hardware, verbesserte Algorithmen, schnelle In-Memory-Datenbanken und vor allem riesige Mengen an Daten unterschiedlicher Herkunft, mit denen die Algorithmen trainiert werden konnten. Das bekannteste Anwendungsbeispiel aus dieser Zeit, das der KI Ansehen und Akzeptanz verschaffte, ist dabei sicher das Programm „Watson“ von IBM (2011), das die amerikanische Quizsendung „Jeopardy“ gewann.
Der neue KI-Hype und die Zukunft Künstlicher Intelligenz
Ein echter Boom der Künstlichen Intelligenz bzw. des Machine Learnings setzt mit dem sogenannten „ImageNet-Durchbruch“ ein. Nachdem Forscher bereits gezeigt hatten, dass Programme mithilfe von neuronalen Netzen und Deep Learning Sprachen verstehen können, ist jetzt die Bild-Analyse dran. Beim ImageNet-Wettbewerb erkennt eine auf Deep Learning basierende KI Bilder besser als jedes andere Programm vor ihr und zeigt damit, welche Hoffnungen man in der Zukunft auf das Machine Learning und speziell Deep Learning setzen darf.
Seitdem eilt die KI-Entwicklung von Rekord zu Rekord und schafft immer mehr Anwendungsszenarien. Zuletzt zeigte etwa Googles britische KI-Schwester Deepmind das KI-System Alphafold, das Proteinfaltungen viel besser und schneller vorhersagt als menschliche Experten. Alphafold könnte der Beginn einer genetischen Revolution sein.
Andere moderne KI-Systeme wie GPT-3 oder DALL-E von OpenAI können glaubhafte Texte oder fantasievolle Bilder generieren. Autoren oder Künstler lassen sich von solchen Systemen inspirieren oder automatisieren Teile ihrer Arbeit.
Die Zukunft Künstlicher Intelligenz: Mit Deep Learning zur Super-KI?
Ein Ende dieses KI-Booms ist lange nicht in Sicht. Im Gegenteil: Die KI-spezifische Rechenleistung nimmt weiter zu und die Systemarchitekturen für Soft- und Hardware werden immer ausgeklügelter und effizienter. Multimodale KI-Systeme, die mit verschiedenen Datentypen trainiert werden und daher flexibler sind, bilden den Auftakt einer neuen Generation Künstlicher Intelligenz.
Einige KI-Forschende sind überzeugt, dass mit Deep Learning die Entwicklung einer starken KI oder sogar Super-KI möglich ist, wenn nur genug Daten und Rechenleistung zusammentreffen. Große Tech-Konzerne wie Alphabet, Facebook, Apple, Nvidia und viele weitere Unternehmen investieren Milliarden in dieses KI-Wettrennen.
Das zeigt: Künstliche Intelligenz hat zwar eine jahrzehntelange Vergangenheit mit vielen Irrtümern. Aber jetzt steht KI vor einer neuen Dekade mit so vielen neuen Möglichkeiten, sodass es sich anfühlt, als sei Künstliche Intelligenz gerade erst erfunden worden.
Erst jetzt, rund 70 Jahre nach der Erfindung des ersten Perzeptrons, steht Künstliche Intelligenz vor dem großen Durchbruch. Dabei muss KI nicht einmal intelligent sein wie der Mensch oder zur Super-KI mutieren wie in Science-Fiction-Filmen, um unsere Welt zu verändern. Schon der gegenwärtige Stand der KI reicht für grundlegende Veränderungen in allen Lebensbereichen aus. Beispiele sind autonomer Verkehr, Datenanalysen in Unternehmen, KI-gestützte Assistenzsysteme oder die Generierung von Videos, Bildern und Texten.
Wer KI beherrscht, der beherrscht die Zukunft. Google-Chef Sundar Pichai bezeichnete die Entwicklung fortschrittlicher Künstliche Intelligenz mit Blick auf die Entwicklung der Menschheit gar als „wichtiger als die Entdeckung von Feuer und Elektrizität“.