KI an der HU Berlin
Generative künstliche Intelligenz[1] wie OpenAI, ChatGPT oder Google Gemini erleben eine rasante Entwicklung und finden zunehmend für immer mehr Aufgabenbereiche Anwendung – auch im beruflichen Kontext der Beschäftigten der Humboldt-Universität zu Berlin.
Wie bei jeder neuen Technologie, verfolgen wir als Universität den Anspruch, uns mit diesen Entwicklungen konstruktiv auseinanderzusetzen und sie sicher in unseren Arbeitsalltag zu integrieren. Hinzu kommt, dass wir als Hochschule den Ansprüchen an Datenschutz und Datensicherheit Rechnung tragen müssen. Obwohl Nutzen, Folgen und Risiken dieser KI-Tools erst in Teilen absehbar sind, können wir davon ausgehen, dass die Entwicklungsgeschwindigkeit im Bereich der KI in Zukunft weiter zunehmen wird.
Erste Angebote für die HU
- Bereitstellung von datenschutzkonformen großen Sprachmodellen (Large Language Models, LLM) für den Einsatz in Forschung, Lehre und Verwaltung
- HPC@HU für die Forschung (High Performance Computing Cluster)
- Aufbau eines JupyterHubs und seine Einbindung in die digitale Lehr- und Lernlandschaft der HU (HDL3) inkl. Schnittstelle zum HU-Moodle
- Entwicklung eines KI-Leitfadens für die HU, der sukzessive zu einer KI-Policy ausgebaut werden soll.
Desweiteren ist die Etablierung von experimentellen Umgebungen für RAG[2] und LoRA[3] in Planung.
Datenschutzkonforme KI-Chatbots (LLM) für alle
Zurzeit werden verschiedene Large Language Models durch den CMS gehostet. Allen ist gemeinsam, dass sie nur im HU-Netz bzw. via VPN aufgerufen werden können.
Eingaben (Prompts) werden anders als bei kommerziellen Angeboten nach Schließen des Chats nicht gespeichert und nicht für eine Weiterentwicklung des Modells genutzt. Persönliche Informationen oder personenbezogene Daten bleiben damit vertraulich, da niemand außerhalb des gerade aktuellen Chats Zugriff darauf hat. Ein Logging findet nicht statt.
Hier finden Sie weitere Informationen zu den Sprachmodellen.
Weitere Sprachmodelle können hinzukommen.
HPC@HU - High Performance Computing Cluster für die Forschung
Mit HPC@HU startet der CMS der HU ein innovatives High-Performance-Computing-Angebot, um ressourcenschonend Hard- und Software für das Hochleistungsrechnen allen Forschern, Wissenschaftlern und Lehrenden der HU leicht zugänglich zu machen.
Derzeit können Interessierte einen Testzugang zur Plattform "Azimuth" beantragen. Bitte kontaktieren Sie hierzu hpc-support@hu-berlin.de. HPC@HU ist derzeit nur aus dem VPN der HU heraus erreichbar.
JupyterHub in der Lehre (JH)
JupyterHub ist ein Open-Source-Tool, mit dem Studierende, Lehrende und Forschende interaktive Jupyter Notebooks auf einer leistungsstarken Umgebung der HU ohne weitere Installationen für Prototyping, Datenanalyse und Datenvisualisierung im Browser ausführen können. Um den JupyterHub nutzen zu können, benötigt man einen HU-Account. Der JupyterHub ist frei aus dem Netz zugänglich.
Link: https://jupyterhub.hu-berlin.de
Nähere Informationen zu den einzelnen Infrastrukturangeboten finden Sie unter "Mehr zu LLM, HPC & JH".
[1] Unter Künstlicher Intelligenz (KI) werden Algorithmen verstanden, mit denen menschliche kognitive Fähigkeiten imitiert werden. Generative KI bezieht sich in diesem Sinne auf den Einsatz von KI für die Analyse von Mustern und Strukturen in vorhandenen Daten, um neue Inhalte verschiedener Formate wie z. B. Text, Musik, Computercode, Bilder oder Videos zu erzeugen.
[2] RAG bzw. Retrieval Augmented Generation, ist eine Technik, die die Fähigkeiten eines vortrainierten großen Sprachmodells mit einer externen Datenquelle kombiniert. Dieser Ansatz vereint die generative Kraft von LLMs wie GPT-3 oder GPT-4 mit der Präzision von spezialisierten Datensuchmechanismen, was zu einem System führt, das nuancierte Antworten geben kann. (https://www.datacamp.com/blog/what-is-retrieval-augmented-generation-rag, 14.3.2024)
[3] LoRA (Low-Rank Adaptation of Large Language Models) ist eine beliebte und leichtgewichtige Trainingstechnik, die die Anzahl der trainierbaren Parameter erheblich reduziert. Dabei wird eine kleinere Anzahl neuer Gewichte in das Modell eingefügt und nur diese werden trainiert. Dadurch ist das Training mit LoRA viel schneller, speichereffizienter und erzeugt kleinere Modellgewichte (einige hundert MB), die sich leichter speichern und weitergeben lassen. (https://huggingface.co/docs/diffusers/training/lora)