Diese Website verwendet Cookies und ähnliche Technologien. Dabei handelt es sich um kleine Textdateien, die auf eurem Computer gespeichert und ausgelesen werden. Indem ihr auf "Alles akzeptieren" klickt, stimmt ihr der Verarbeitung von Daten, der Erstellung und Verarbeitung von individuellen Nutzungsprofilen über Websites und über Partner und Geräte hinweg sowie der Übermittlung eurer Daten an Drittanbieter zu, die eure Daten teilweise in Ländern außerhalb der Europäischen Union verarbeiten (GDPR Art. 49). Einzelheiten hierzu findet ihr in den Datenschutzhinweisen. Die Daten werden für Analysen und für eigene Zwecke Dritter verwendet. Weitere Informationen, auch über die Datenverarbeitung durch Drittanbieter und die Möglichkeit des Widerrufs, findet ihr in den Einstellungen und in unseren Datenschutzhinweisen. Hier könnt ihr mit den notwendigen Tools fortfahren.
- Verlag: dpunkt
- Autor: Sebastian Raschka
- Artikel-Nr.: KNV97729542
- ISBN: 9783988890313
- Schließt die Lücke zwischen Grundlagen und Profiwissen
- Einfache, prägnante Erklärungen zu wichtigen und aktuellen Themen
- Mit Übungsaufgaben sowie Codebeispielen auf GitHub
Sie verfügen bereits über Grundkenntnisse zu maschinellem Lernen und künstlicher Intelligenz, haben aber viele Fragen und wollen tiefer in wesentliche und aktuelle Konzepte eintauchen? ML- und KI-Experte Sebastian Raschka greift in diesem Buch die wichtigsten Schlüsselfragen auf und liefert sowohl prägnante als auch einfach verständliche Erklärungen zu komplexen und fortgeschrittenen Themen wie Deep Learning, Überanpassung, Self-Supervised Learning, generative KI, Computer Vision, Natural Language Processing und Modellevaluierung.
Viele Beispiele, anschauliche Illustrationen und praktische Übungsaufgaben helfen Ihnen dabei, das Erlernte nicht nur schnell zu verstehen, sondern auch praktisch umzusetzen. Dabei werden weder fortgeschrittene Mathematik- noch Programmierkenntnisse vorausgesetzt - wer tiefer in den Code eintauchen will, findet jedoch im kostenlosen Zusatzmaterial einige Codebeispiele.
Aus dem Inhalt:
- Umgang mit verschiedenen Zufallsquellen beim Training neuronaler Netze
- Unterscheidung zwischen Encoder- und Decoder-Architekturen in großen Sprachmodellen (LLMs)
- Verringerung von Überanpassung durch Daten- und Modellmodifikationen
- Konstruktion von Konfidenzintervallen für Klassifizierer und Optimierung von Modellen mit begrenzten gelabelten Daten
- Wählen zwischen verschiedenen Multi-GPU-Trainingsparadigmen und verschiedenen Arten von generativen KI-Modellen
- Verstehen von Performancemetriken für die Verarbeitung natürlicher Sprache