Blog
Wir berichten
Wir fassen für Sie herausragende Artikel im Bereich Data Science, Machine Learning, Natural Language Processing und Computer Vision zusammen, beleuchten bisher zu wenig beachtete Aspekte der Künstlichen Intelligenz und berichten aus der Praxis.
Praxisorientiert: Der CO2-Fußabdruck eines KI Projekts
Nachhaltigkeit ist ein wesentlicher Aspekt der ethisch verantwortlichen Entwicklung und Anwendung von KI. Daher erfasst Tetrai seine Umweltauswirkungen — z.Bsp. innerhalb von Kundenprojekten — und kompensiert sie.
Kurz notiert: Gradienten legen Trainingsdaten offen
In ihrem NeurIPS-2019 Artikel beschreiben Zhu et al. einen Angriff auf Federated Learning (FL): Sie zeigen wie Gradienten — die entweder in einer Client-Server- oder einer Peer-to-Peer-FL-Anwendung ausgetauscht werden — (private) Trainingsdaten offen legen.
Vielversprechend: Nachhaltige(re) KI
Nachhaltigkeit ist ein ethischer Wert der verantwortungsvollen Entwicklung und Anwendung Künstlicher Intelligenz. In ihrem Artikel, der bereits 2019 auf der ACL präsentiert zeigten Strubel et al., wie teuer es ist, große Sprachmodelle zu trainieren.
Vielversprechend: Erklärbare KI
In diesem Blog-Eintrag gehen wir näher auf einen weiteren zentralen Aspekt verantwortungsvoller Entwicklung und Anwendung von Künstlicher Intelligenz (KI) ein: die Erklärbarkeit von Entscheidungen, die durch KI getroffen werden.
Kurz notiert: Sprachmodelle erlernen keine Bedeutung (?)
In dem “best theme paper” der ACL-2020 argumentieren die Autoren, dass Sprachmodelle (wie bspw. Googles BERT), die ausschließlich auf unannotierten Sprach-Daten trainiert werden, keine Bedeutung erlernen können.
Kurz notiert: Transformer sind Turing-vollständig
Transformer sind Neuronale Netze, die sich dadurch auszeichnen, Kontext sehr gut zu erfassen und — im Gegensatz zu rekurrenten Modellen wie bspw. den Long Short-Term Memories, kurz LSTMs — dennoch gut parallelisiert sind.