Digitale Synapsen -  René Schröder

Digitale Synapsen (eBook)

Eine Reise durch Künstliche Intelligenz und ChatGPT
eBook Download: EPUB
2024 | 2. Auflage
218 Seiten
Books on Demand (Verlag)
978-3-7583-9573-4 (ISBN)
Systemvoraussetzungen
9,99 inkl. MwSt
  • Download sofort lieferbar
  • Zahlungsarten anzeigen
Das Buch "Digitale Synapsen - Eine Reise durch Künstliche Intelligenz und ChatGPT" beleuchtet die spannende Welt der Künstlichen Intelligenz. Die Reise beginnt mit der Erklärung von Künstlicher Intelligenz und erklärt den Aufbau von neuronalen Netzen. Weiterhin wird ChatGPT detailliert betrachtet und die Erstellung von Prompts erklärt. Es gibt wertvolle Tipps zur Nutzung von ChatGPT. Die Reise beinhaltet zudem die Betrachtung von gesetzlichen und europäischen Bestimmungen, bekannte Anwendungen mit Künstlicher Intelligenz und einem interessanten Ausblick auf die Zukunft der Künstlichen Intelligenz. Eine ganzheitliche Betrachtung von Risiken und Chancen zieht sich durch das gesamte Buch. Künstliche Intelligenz ja - aber SICHER! Jeder der sich für Künstliche Intelligenz, ChatGPT und den Chancen und Risiken interessiert wird hier fündig.

Der Autor René Schröder (Dipl.Ing) ist ein Fachexperte im Bereich Informationssicherheit und Cybersecurity mit über 23 Jahren Erfahrung. Er besitzt umfangreiche Kenntnisse im Bereich von IT-Sicherheitskonzepten, technischen Audits von Berechtigungskonzepten, Themen des Datenschutzes und der Datensicherheit. Weiterhin kann der Autor langjährige Erfahrungen im Bereich der ISO 27001 Zertifizierungen vorweisen. Mit diesem Wissen wird unter anderem in diesem Buch die Künstliche Intelligenz betrachtet und verständlich bewertet.

4. ANWENDUNGEN IM PRIVATLEBEN

Künstliche Intelligenz hat sich in den letzten Jahren schon sehr stark in das Privatleben etabliert. Als Beispiele können hier Sprachassistenten wie Siri oder Alexa, Navigation mit Google Maps, Browser Suchmaschinen oder Smartphones mit Gesichtserkennung genannt werden. Vieles davon passiert im Hintergrund, ohne dass man es real mitbekommt.

Besonders Großkonzerne wie Alphabet (Mutterkonzern von Google), Amazon oder Meta (vorher Facebook) benutzen seit Jahren KI in großem Stil. Um erfolgreich KI-Anwendungen zu realisieren ist vor allem eines sehr wichtig – Daten. Bei Daten gilt das Prinzip „Je mehr, desto besser“. Das spielt diesen Technologiekonzernen in die Hände, denn sie verfügen über einen enormen Datenschatz. Mit diesem großen Datenschatz kann KI dann „trainiert“ werden.

4.1. Recommendation Engines (RE)

Recommendation Engines, auch bekannt als Empfehlungssysteme, sind Algorithmen oder Modelle, die dazu dienen, Vorhersagen darüber zu treffen, welche Produkte oder Dienstleistungen ein Benutzer wahrscheinlich bevorzugen oder nutzen würde. Diese Systeme sind eine wichtige Komponente vieler Online-Dienste, einschließlich Streaming-Plattformen wie Netflix, E-Commerce-Websites wie Amazon, und sozialen Netzwerken wie Facebook.

Im Allgemeinen gibt es drei Haupttypen von Empfehlungssystemen:

Inhaltsbasierte Empfehlungssysteme

Diese Art von System empfiehlt Artikel, die ähnlich zu denen sind, die der Benutzer in der Vergangenheit gemocht oder konsumiert hat. Sie verwenden Merkmale der Artikel, um ihre Ähnlichkeit zu bestimmen.

Zum Beispiel könnte ein inhaltsbasiertes Empfehlungssystem für Filme Genres, Regisseure, Schauspieler und andere Merkmale der Filme verwenden, die der Benutzer in der Vergangenheit gesehen hat, um ähnliche Filme zu empfehlen.

Kollaborative Empfehlungssysteme

Diese Systeme empfehlen Artikel basierend auf den Vorlieben ähnlicher Benutzer. Zum Beispiel, wenn Benutzer A und B ähnliche Interessen an Filmen haben, und Benutzer A einen Film mochte, den Benutzer B noch nicht gesehen hat, könnte das System diesen Film Benutzer B empfehlen. Dieser Ansatz wird als kollaboratives Filtern bezeichnet.

Hybrid-Empfehlungssysteme

Diese Systeme kombinieren die Ansätze der inhaltsbasierten und kollaborativen Empfehlungssysteme, um die Vorteile beider Ansätze zu nutzen und ihre Nachteile zu minimieren.

Beispielsweise könnten sie das Problem des "kalten Starts" lösen, bei dem ein System Schwierigkeiten hat, Empfehlungen für neue Benutzer zu machen, für die es noch keine Vorliebe-Daten hat. Ein hybrides System könnte in diesem Fall inhaltsbasierte Empfehlungen machen, bis es genügend Daten gesammelt hat, um kollaborative Empfehlungen zu machen.

4.2. Computer Vision (CV)

Computer Vision ist ein Bereich der Künstlichen Intelligenz, der sich darauf konzentriert, Computern das "Sehen" oder Interpretieren visueller Informationen in ähnlicher Weise wie Menschen zu ermöglichen. Das Ziel der Computer Vision ist es, automatisch aus digitalen Bildern oder Videos sinnvolle Informationen zu extrahieren.

Als Beispiele für Computer Vision sind hier das Entsperren eines Smartphones per Gesichtserkennung, Fotografieren mit einem Smartphone und Videostabilisierung genannt. Computer Vision umfasst eine breite Palette von Aufgaben, darunter:

Bilderkennung

Die Identifizierung bestimmter Objekte oder Merkmale in einem Bild, wie z.B. das Erkennen von Gesichtern oder das Identifizieren von Objekten in einem Foto.

Bildsegmentierung

Die Aufteilung eines Bildes in mehrere Segmente oder Regionen, um bestimmte Bereiche des Bildes besser analysieren zu können.

Bildregistrierung

Das Überlagern zweier oder mehrerer Bilder desselben Ortes, um eine genaue Ausrichtung zu erreichen. Dies ist nützlich in Berei-chen wie der Medizinischen Bildgebung und der Satellitenbildana-lyse.

Objektverfolgung

Die Identifizierung der Bewegung von Objekten im Laufe der Zeit in Videosequenzen.

3D-Rekonstruktion

Die Erstellung von 3D-Modellen von Szenen oder Objekten aus 2D-Bildern.

All diese Aufgaben erfordern das Verständnis und die Anwendung von Konzepten aus verschiedenen Bereichen, einschließlich maschinellen Lernens, Bildverarbeitung, lineare Algebra und statistische Inferenz. Die Anwendungen von Computer Vision sind vielfältig und reichen von der automatisierten Inspektion in der Fertigung über medizinische Bildanalyse und autonome Fahrzeuge bis hin zur Videoüberwachung und Biometrie.

Wie die meisten Bereiche der Künstlichen Intelligenz, hat auch die Computer Vision in den letzten Jahren aufgrund der Fortschritte im maschinellen Lernen und insbesondere in den tiefen neuronalen Netzwerken erhebliche Fortschritte gemacht. Diese Techniken haben es ermöglicht, leistungsstarke Modelle zu erstellen, die in der Lage sind, komplexe Muster in visuellen Daten zu erkennen und zu interpretieren.

4.3. Natural Language Processing (NLP)

Natural Language Processing (NLP), oder auf Deutsch die Verarbeitung natürlicher Sprache, ist ein Bereich der künstlichen Intelligenz, der sich mit der Interaktion zwischen Computern und menschlicher Sprache befasst. Im Besonderen geht es darum, wie man Computern programmiert, um menschliche Sprache zu verarbeiten, zu analysieren und zu verstehen.

Als beste Beispiele seien Amazons Alexa oder Google Home genannt, aber auch Smartphones besitzen integrierte Assistenten.

Einige der Hauptaufgaben im Bereich des NLP umfassen:

Sentiment-Analyse

Bestimmung der Stimmung oder Meinung, die in einem Text ausgedrückt wird. Beispielsweise könnte ein Unternehmen Sentiment-Analyse verwenden, um zu analysieren, wie Kunden auf Social Media über seine Produkte sprechen.

Textklassifikation

Zuordnung von Texten zu vorgegebenen Kategorien. Ein Beispiel dafür ist der Spam-Filter in Ihrem E-Mail-Programm, der entscheiden muss, ob eine eingehende Nachricht Spam ist oder nicht.

Maschinelles Übersetzen

Übersetzung von Texten von einer Sprache in eine andere, wie es beispielsweise von Google Translate oder DeepL gemacht wird.

Erkennung von benannten Entitäten (Named Entity Recognition, NER)

Identifizierung von Personen, Organisationen, Orten und anderen Entitäten in Texten.

Automatisches Zusammenfassen

Erstellung von kurzen Zusammenfassungen langer Texte.

Chatbots und Sprachassistenten

Verarbeitung und Beantwortung von Benutzeranfragen in natürlicher Sprache.

Das NLP beruht stark auf maschinellem Lernen und tiefen Lernalgorithmen. Frühe NLP-Systeme wurden mit handgeschriebenen Regeln erstellt, aber moderne Systeme lernen oft aus großen Mengen von Textdaten, um die Muster und Strukturen der menschlichen Sprache zu erkennen.

Ein wichtiger Aspekt des NLP ist die Fähigkeit, Ambiguität zu bewältigen, da viele Worte und Sätze in der menschlichen Sprache auf verschiedene Arten interpretiert werden können. Daher ist es eine große Herausforderung in diesem Bereich, Computer dazu zu bringen, menschliche Sprache in der gleichen Weise zu verstehen, wie Menschen es tun.

4.4. Large Language Models (LLM)

Große Sprachmodelle (engl. Large Language Models - LLMs) sind Modelle der künstlichen Intelligenz, die darauf trainiert sind, menschliche Sprache zu verstehen und zu generieren. Sie werden "groß" genannt, weil sie Millionen oder sogar Milliarden von Parametern haben und auf riesigen Mengen von Textdaten trainiert werden.

Diese Modelle sind ein Teilbereich des Natural Language Processing (NLP) und sie verwenden oft Techniken aus dem Bereich des maschinellen Lernens, insbesondere tiefes Lernen.

Ein Beispiel für ein großes Sprachmodell ist GPT-3 von OpenAI, dass 175 Milliarden Parameter hat und auf hunderten von Giga-byte Text trainiert wurde.

Große Sprachmodelle können eine Vielzahl von Aufgaben ausführen, indem sie Text generieren, der auf einer gegebenen Eingabe basiert. Sie können zum Beispiel:

• Fragen auf des Trainingsdatensatzes beantworten.

• Texte in einer anderen Sprache übersetzen.

• Eine Zusammenfassung eines langen Dokuments erstellen.

• Einen Text fortsetzen, der mit Anfangssätzen gegeben ist.

Es gibt verschiedene große Sprachmodelle (Large Language Models, LLMs), die in der KI-Forschung und in Anwendungen genutzt werden. Einige prominente Beispiele sind (Stand 12/2023):

GPT-3 (Generative Pre-trained Transformer 3)

GPT-3 ist ein Sprachmodell von OpenAI und hat 175 Milliarden Parameter. Es ist in der Lage, erstaunlich menschenähnlichen Text zu generieren und wurde in vielen verschiedenen Anwendungen eingesetzt, von automatisierten Kundendienst-Chatbots bis hin zur Generierung von kreativem Schreiben.

GPT-2

GPT-2 ist der Vorgänger von GPT-3 und hat 1,5 Milliarden Parameter. Es wurde weithin als Durchbruch in der Sprachmodellierung gefeiert, als es erstmals veröffentlicht wurde.

BERT (Bidirectional Encoder Representations from Transformers)

BERT ist ein...

Erscheint lt. Verlag 16.1.2024
Sprache deutsch
Themenwelt Informatik Theorie / Studium Künstliche Intelligenz / Robotik
ISBN-10 3-7583-9573-9 / 3758395739
ISBN-13 978-3-7583-9573-4 / 9783758395734
Haben Sie eine Frage zum Produkt?
EPUBEPUB (Wasserzeichen)
Größe: 5,2 MB

DRM: Digitales Wasserzeichen
Dieses eBook enthält ein digitales Wasser­zeichen und ist damit für Sie persona­lisiert. Bei einer missbräuch­lichen Weiter­gabe des eBooks an Dritte ist eine Rück­ver­folgung an die Quelle möglich.

Dateiformat: EPUB (Electronic Publication)
EPUB ist ein offener Standard für eBooks und eignet sich besonders zur Darstellung von Belle­tristik und Sach­büchern. Der Fließ­text wird dynamisch an die Display- und Schrift­größe ange­passt. Auch für mobile Lese­geräte ist EPUB daher gut geeignet.

Systemvoraussetzungen:
PC/Mac: Mit einem PC oder Mac können Sie dieses eBook lesen. Sie benötigen dafür die kostenlose Software Adobe Digital Editions.
eReader: Dieses eBook kann mit (fast) allen eBook-Readern gelesen werden. Mit dem amazon-Kindle ist es aber nicht kompatibel.
Smartphone/Tablet: Egal ob Apple oder Android, dieses eBook können Sie lesen. Sie benötigen dafür eine kostenlose App.
Geräteliste und zusätzliche Hinweise

Buying eBooks from abroad
For tax law reasons we can sell eBooks just within Germany and Switzerland. Regrettably we cannot fulfill eBook-orders from other countries.

Mehr entdecken
aus dem Bereich
der Praxis-Guide für Künstliche Intelligenz in Unternehmen - Chancen …

von Thomas R. Köhler; Julia Finkeissen

eBook Download (2024)
Campus Verlag
38,99