Künstliche Intelligenz (eBook)

Fakten, Chancen, Risiken
eBook Download: EPUB
2024 | 2. Auflage
128 Seiten
Verlag C.H.Beck
978-3-406-81557-7 (ISBN)

Lese- und Medienproben

Künstliche Intelligenz -  Manuela Lenzen
Systemvoraussetzungen
8,99 inkl. MwSt
  • Download sofort lieferbar
  • Zahlungsarten anzeigen
Mit der Entwicklung Künstlicher Intelligenz verbinden sich große Hoffnungen und ebenso große Befürchtungen. Ob ChatGPT, AlphaFold oder Pepper: Manuela Lenzen beschreibt die Grundlagen, die Möglichkeiten und Grenzen Künstlicher Intelligenz, ihre wichtigsten Einsatzmöglichkeiten und bereits eingetretene oder anstehende Folgen. Die KI-Forschung steht noch am Anfang. Die Weichen für die Nutzung ihrer Ergebnisse aber müssen wir heute stellen.

Manuela Lenzen wurde in Philosophie promoviert und schreibt als freie Wissenschaftsjournalistin über Digitalisierung, Künstliche Intelligenz und Kognitionsforschung.

2. Ein Ausflug in die Geschichte


Versuche, Gedanken zu formalisieren, sie also ohne Rücksicht auf ihren Inhalt, allein ihrer Form nach zu betrachten und so darüber zu entscheiden, ob Argumente gültig sind, gehen bis auf die antike Logik zurück. Auch automatisierte Beweisverfahren wurden, in Form von gegeneinander verdrehbaren Papierscheiben, früh erprobt, etwa im 13. Jahrhundert von dem mallorquinischen Philosophen Ramon Llull. Zu den Wegbereitern der KI gehört auch der Philosoph und Mathematiker Gottfried Wilhelm Leibniz, der an einer «Algebra des Geistes» arbeitete, mit deren Hilfe man «gleichsam wie durch die Tätigkeit einer Maschine» sicher zu einem Ergebnis kommen sollte. Wie Lull hatte auch Leibniz den Gedanken, die Formalisierung von Denkprozessen könne dazu beitragen, Streit aus der Welt zu schaffen, ließe sich doch mit einem objektiven Verfahren feststellen, wer recht hat. Auch Logiker wie George Boole und Gottlob Frege, die die Erkenntnisse der Antike weiterentwickelten, gehören zu den Vorvätern der KI.

Doch erst mit der Entwicklung der Computer ließen sich viele der Ideen zur Automatisierung des Denkens umsetzen. Auch die Geschichte der Rechenmaschinen lässt sich weit zurückverfolgen, bis zum Abakus, dessen Alter auf etwa 4500 Jahre geschätzt wird. Zu den moderneren Vorläufern der Computer zählen die mit Lochkarten programmierbaren Webstühle des frühen 19. Jahrhunderts und die von Charles Babbage 1837 als Modell präsentierte «Analytische Maschine» – deren erstes «Programm» im Übrigen eine Frau entwickelte: Ada Lovelace. Als erster funktionsfähiger Computer gilt der 1941 von Konrad Zuse entwickelte Z3, der mit elektromagnetischen Relais arbeitete, wie sie für die Telekommunikation entwickelt worden waren. ENIAC, ein im Auftrag der US-Armee entwickelter und 1946 fertiggestellter Rechner auf Röhrenbasis, konnte bereits die Grundrechenarten ausführen und Quadratwurzeln ziehen. Während Z3 für eine Berechnung mehrere Sekunden benötigte, arbeitete ENIAC in Millisekunden.

Als Beginn der modernen Künstliche-Intelligenz-Forschung gilt eine Tagung, die 1956 am Dartmouth College in Hanover, New Hampshire, stattfand. Vier junge Forscher, unter ihnen John McCarthy und Marvin Minsky, hatten Kollegen eingeladen, um zwei Monate lang darüber nachzudenken, «wie Maschinen dazu gebracht werden können, Begriffe zu bilden, Sprache zu verwenden, Probleme zu lösen, die zu lösen zuvor dem Menschen vorbehalten waren, und sich selbst zu verbessern». Für dieses Projekt prägten sie den Namen «Artificial Intelligence» – «Künstliche Intelligenz».

Sie starteten freilich nicht aus dem Nichts. Alan Turing hatte schon in den 1930er Jahren nachgewiesen, dass eine Maschine, die jedes Problem lösen kann, das sich in klar definierte Einzelschritte zerlegen lässt, im Prinzip möglich ist: die heute sogenannte Turing-Maschine. In den 1940er Jahren hatten Walter Pitts und Warren McCulloch erste vom Gehirn inspirierte künstliche neuronale Netze aus sogenannten formalen Neuronen entworfen: Gleichungen, die verschiedene Eingangswerte und einen Schwellenwert zu einem Ergebnis verrechnen, so, wie Neuronen des Gehirns Eingangssignale von anderen Neuronen erhalten und erst ihrerseits ein Signal weiterleiten, wenn ein Schwellenwert erreicht ist. 1947 hatte wiederum Alan Turing einen Vortrag vor der London Mathematical Society gehalten, in dem er von den Möglichkeiten intelligenter Maschinen sprach, von der Notwendigkeit, sie von Menschen lernen zu lassen, und dem Schachspiel als möglichem Testfeld.[2] 1950 beschrieb der amerikanische Mathematiker und Elektrotechniker Claude Shannon ein erstes Schachprogramm.[3]

Ebenfalls 1956 fand am Massachusetts Institute of Technology eine zweite wichtige Tagung statt: Allen Newell, Herbert Simon und John Shaw präsentierten dort ihren «Logical Theorist», ein Programm, das einige mathematische Theoreme beweisen konnte, und der Linguist Noam Chomsky stellte seine Theorie der Sprache vor, der zufolge ein unbewusst bleibendes Regelsystem es Sprechern erlaubt, immer neue Sätze zu bilden. Könnte man diese Regeln finden, so sein Gedanke, könnte man sie vielleicht auch in einen Computer programmieren. 1956 wurde zudem der Nobelpreis für Physik für die «Entdeckung des Transistoreffekts» verliehen, diejenige Technologie, die die Röhrenrechner ablöste und, um Dimensionen verkleinert, bis heute die Computertechnik bestimmt.[4]

In dieser Aufbruchszeit kannte der Optimismus der Forscher kaum Grenzen. Innerhalb von nur zwei Monaten gedachten die in Dartmouth Versammelten, in ihrem Projekt wesentliche Fortschritte zu erzielen, Fortschritte, die sich zum Teil erst in jüngster Zeit tatsächlich einstellten.[5]

Dass sie die vor ihnen liegende Aufgabe so sehr unterschätzten, lag zum einen daran, dass sie keine Vorstellung von der Komplexität der Probleme hatten, die vor ihnen lagen, und von der Leistungsfähigkeit der Computer, die dafür benötigt würden. Vor allem aber unterschätzten sie, wie wenig die menschliche Intelligenz verstanden war (und ist) und wie sehr sich die Vorstellung von Intelligenz im Zuge der Versuche, diese in Maschinen nachzubauen, verändern würde. «Wir gehen davon aus, dass jeder Bereich der menschlichen Kognition im Prinzip so genau beschrieben werden kann, dass man eine Maschine dazu bringen kann, sie zu imitieren», heißt es in dem Antrag, mit dem die Forscher Fördergelder für ihre Tagung einwarben. Wie sich herausstellen sollte, ist dies nicht der Fall. Stattdessen hat sich im Laufe von über 60 Jahren KI-Forschung gezeigt, dass Intelligenz mehr umfasst als die klassischerweise von Intelligenztests gemessenen Fähigkeiten, dass sie einen Körper benötigt, eine Umwelt und die Möglichkeit, in dieser zu handeln, die Interaktion mit Mitmenschen, eine Kindheit und auch die Vorprägung durch die Evolution. Wie intelligent ein künstliches System ohne diese Aspekte werden kann, ist eine offene Frage.

Es war abermals Alan Turing, der 1950 visionär zwei Wege skizzierte, um intelligente Maschinen zu realisieren. Man könne entweder mit einer abstrakten Tätigkeit wie dem Schachspielen beginnen, oder man könne eine Maschine mit Sinnesorganen ausstatten und sie dann wie ein Kind unterrichten. Er plädierte dafür, beide Ansätze zu erproben.[6]

Der Mainstream der frühen KI-Forscher begab sich auf den ersten von Turing beschriebenen Weg und begann mit den abstrakten Tätigkeiten. Programme für Spiele wie Dame, Schach und Tic Tac Toe wurden entwickelt, logische, geometrische und mathematische Probleme behandelt. Ausgehend von der Art, wie Menschen solche Probleme angehen, hoffte man, grundlegende Prinzipien des Denkens zu erfassen. So nannten Herbert Simon und Allen Newell ihr 1957 präsentiertes Programm «General Problem Solver», allgemeinen Problemlöser, und beschrieben es als ein «Programm, das das menschliche Denken simuliert». Tatsächlich war der Name etwas hoch gegriffen; das Programm konnte lediglich einige wohldefinierte Probleme lösen.

Doch auch die Grundlagen für die aktuellen lernenden Verfahren wurden bereits in den 1950er Jahren gelegt. 1956 stellte der Psychologe Frank Rosenblatt Mark 1 vor, einen Computer mit einem Künstlichen Neuronalen Netz, basierend auf den künstlichen Neuronen von McCulloch und Pitts und dem Gedanken des Psychologen Donald Hebb, dass Gehirne lernen, indem sich die Verbindungen zwischen Neuronen, die oft gemeinsam aktiv sind, verstärken. Das sogenannte Perzeptron konnte nach Trainingsläufen, bei denen die Verbindungen zwischen den künstlichen Neuronen eingestellt wurden, mithilfe einer Schicht von Fotozellen einfache Muster erkennen. Rosenblatt postulierte damals, die Zukunft der KI liege eindeutig in diesen statistischen, nicht in den logischen Verfahren. Doch das Perzeptron funktionierte nicht besonders gut und deckte längst nicht die Bandbreite der klassischen Programmierung ab. So konnte es etwa die Funktion XOR, A oder B, aber nicht beide zugleich, nicht berechnen. Für Netze mit mehreren Schichten, die dieses Problem behoben hätten, kannte man noch kein Lernverfahren. In den folgenden Jahren kehrte die Zunft den Künstlichen Neuronalen Netzen erst einmal den Rücken, es kam zum ersten KI-Winter: Die DARPA, die Forschungsabteilung des US-Militärs, das die KI-Forschung von Beginn an unterstützt hatte, kürzte ihre Fördergelder massiv.

Es folgte eine Phase der Orientierung, in der die KI allmählich und zuerst in den USA als Fach an Universitäten etabliert wurde. In den 1960er Jahren entstanden dann die ersten Dialogsysteme. Das berühmteste unter...

Erscheint lt. Verlag 25.1.2024
Reihe/Serie Beck'sche Reihe
Zusatzinfo mit ca. 6 Abbildungen
Verlagsort München
Sprache deutsch
Themenwelt Sachbuch/Ratgeber Geschichte / Politik Politik / Gesellschaft
Informatik Theorie / Studium Künstliche Intelligenz / Robotik
Schlagworte AI • Algorithmen • Alpha Fold • Artificial Intelligence • Artifizielle Intelligenz • Big Data • Chat GPT • Digitalisierung • Gesellschaft • Hoffnung • Informatik • Intelligenz • KI • KI-Forschung • Künstliche Intelligenz • Pepper • Probleme • Robotik
ISBN-10 3-406-81557-X / 340681557X
ISBN-13 978-3-406-81557-7 / 9783406815577
Haben Sie eine Frage zum Produkt?
Wie bewerten Sie den Artikel?
Bitte geben Sie Ihre Bewertung ein:
Bitte geben Sie Daten ein:
EPUBEPUB (Wasserzeichen)
Größe: 341 KB

DRM: Digitales Wasserzeichen
Dieses eBook enthält ein digitales Wasser­zeichen und ist damit für Sie persona­lisiert. Bei einer missbräuch­lichen Weiter­gabe des eBooks an Dritte ist eine Rück­ver­folgung an die Quelle möglich.

Dateiformat: EPUB (Electronic Publication)
EPUB ist ein offener Standard für eBooks und eignet sich besonders zur Darstellung von Belle­tristik und Sach­büchern. Der Fließ­text wird dynamisch an die Display- und Schrift­größe ange­passt. Auch für mobile Lese­geräte ist EPUB daher gut geeignet.

Systemvoraussetzungen:
PC/Mac: Mit einem PC oder Mac können Sie dieses eBook lesen. Sie benötigen dafür die kostenlose Software Adobe Digital Editions.
eReader: Dieses eBook kann mit (fast) allen eBook-Readern gelesen werden. Mit dem amazon-Kindle ist es aber nicht kompatibel.
Smartphone/Tablet: Egal ob Apple oder Android, dieses eBook können Sie lesen. Sie benötigen dafür eine kostenlose App.
Geräteliste und zusätzliche Hinweise

Buying eBooks from abroad
For tax law reasons we can sell eBooks just within Germany and Switzerland. Regrettably we cannot fulfill eBook-orders from other countries.

Mehr entdecken
aus dem Bereich
der Praxis-Guide für Künstliche Intelligenz in Unternehmen - Chancen …

von Thomas R. Köhler; Julia Finkeissen

eBook Download (2024)
Campus Verlag
38,99