Künstliche Intelligenz, GPT, OpenAI
Speziell Softwareentwickler ohne Vorkenntnisse in dem Bereich künstlicher Intelligenz benötigen eine umfassende Einführung in die Welt der Anwendungsgebiete, Architektur und Funktionsweise von Large Language Models (LLMs), um diese in bestehende oder neue Projekte einbauen zu können.
Einführung in ChatGPT und Large Language Models
Im ersten Block geht es um die Grundlagen von ChatGPT und OpenAI sowie die Erläuterung der Architektur, Funktionsweise und Limitierungen von LLMs. Anhand von praxisnahen Beispielen werden mögliche Einsatzmöglichkeiten von LLMs aufgezeigt. In kurzweiligen Hands-on-Sessions wird die Praktik des „Prompt Engineering“ vorgestellt und wie die Azure OpenAI Services funktionieren.
- Anwendungsgebiete und Einsatzmöglichkeiten für künstliche Intelligenz
- Einführung in LLMs
- Grundlagen von ChatGPT / GPT und ChatGPT
- Architektur und Funktionsweise
- Was GPT2, GPT3, GPT4 und ChatGPT unterscheidet
- Alternativen zu OpenAIs GPT
- Architektur, Funktionsweise und Limitierungen von LLMs
- Beispiele und Einsatzmöglichkeiten von LLMs
- Prompt Engineering in der Praxis
- Schreiben kreativer Texte
- Erstellung von Zusammenfassungen
- Übersetzen von Texten
- Extrahieren von strukturierten Daten aus Texten
- Nutzung von Add-ins
- Weitere Anwendungsfälle
- Einführung in die Azure OpenAI Services
- Einstieg die API
- Modelle und Kosten im Vergleich
Praktische Anwendung von ChatGPT und OpenAI
Im zweiten Block liegt unser Fokus auf der praktischen Anwendung von ChatGPT: Speziell, wie das OpenAI SDK und die Azure OpenAI Services genutzt werden können und das passende sowie effizienteste Modell für ein Projekt ausgewählt wird. Hands-on-Sessions vermitteln, wie ChatGPT mit eigenen Daten und Dokumenten eingesetzt werden und komplexe Prozesse abbilden können.
- OpenAI SDK und Azure OpenAI Services praktisch einsetzen
- Wie das richtige Modell für ein Projekt gefunden wird
- Kostenoptimierung – Wie LLMs effizient eingesetzt werden
- On Premise LLMs bzw. Open Source LLMs leisten
- ChatGPT praktisch mit eigenen Daten und Dokumenten nutzen
- Abbildung von komplexen Prozessen mit Chaining
Integration eigener Daten
Im letzten Block geht es primär um das Wichtigste: Training und die Anpassung von (Chat-) GPT-Modellen. Das beinhaltet die Grundlagen des Modelltrainings, die Vorverarbeitung von Datensätzen sowie die Evaluierung und das Testing von Modellen. Hands-on-Sessions beinhalten die Möglichkeit, in den Übungen ein eigenes Modell zu entwickeln und zu trainieren. Der Block wird von der Diskussion von Sicherheitsrisiken und ethischer Aspekte bei der Verwendung von LLMs abgerundet.
- GPT-Modelltraining und Anpassung
- Grundlagen für das Modelltraining
- Welche Daten für Trainings geeignet sind und wie sie aufbereitet werden
- Datensätze und Vorverarbeitung
- Evaluierung und Testing
- Finetuning
- Best Practices
- Training eines eigenen Modells
- KI-Chatbot für Firmen: ChatGPT Enterprise (längere Prompts/Dokumente, mehr Tokens für größeren Kontext, Verschlüssungsverfahren, unternehmenstypischer Ton/Stil für Antworten etc.)
- Sicherheit – Welche Sicherheitsrisiken es gibt und wie sie minimiert werden können
- Biases in den Daten – Vorurteile einer KI
- Grenzen der Technologie und ethische Überlegungen beim Einsatz von LLMs