Artikel-Archiv c't Know-how, Seite 24
-
Transformer: Sprach-KI mit Aufmerksamkeit
Nicht jede KI wird schlauer, wenn man sie auf gigantische Ausmaße aufbläst – der Textgenerator GPT-3 hingegen schon. Wir zeigen, wie die dahinter liegende Transformer-Technik funktioniert.
Umfang: ca. 8 redaktionelle Seiten
BibTeX anzeigenErwerben Sie das Heft
c't Know-how,
um Zugriff auf diesen Artikel zu erhalten.Dieser Artikel ist nicht Teil der Abonnements von Heise Medien.