Machine Learning auf IoT-fähigen Mikrocontrollern TinyML – wenn kleine Technologien Großes bewirken
Anbieter zum Thema
Large Language Models und Cloud-basierte Machine-Learning-Implementierungen sind leistungsstarke Stromfresser. TinyML setzt dagegen auf energieeffiziente spezifische ML-Lösungen.

Die Möglichkeiten von Machine Learning sind nahezu unbegrenzt, was die Technologie zukunftsfähig macht. Dem stimmen 94 Prozent der befragten KI-Verantwortlichen einer Deloitte-Studie des vergangenen Jahres zu. Bereits heute nutzt mehr als ein Viertel der in einer Umfrage von Reuters/Ipsos befragten US-amerikanischen Angestellten KI-Anwendungen in ihrer täglichen Arbeit.
Large Language Models zeigen sich beispielsweise zunehmend leistungsfähig. Um für individuelle Anwendungsfälle gewappnet zu sein und den Datenschutz anhand eigener Trainingsdaten zu gewährleisten, entwickeln immer mehr Unternehmen eigene große KI-Sprachmodelle oder planen, das noch zu tun.
Ein Nachteil dieser Systeme: Ihr Energieverbrauch ist durch die zentralisierte Datenverarbeitung sehr hoch, sodass sie einen enorm hohen CO2-Fußabdruck haben.
Energieeffizientere ML-Ansätze
Cloud-basiertes Machine Learning (ML) ist das technologische Äquivalent eines Universalgenies. TinyML ist das Gegenteil: Es konzentriert sich auf die Lösung kleiner Probleme, die neue Möglichkeiten in allen Technologiebereichen eröffnen können. Es ist dezentralisiert, sodass der Datenschutz an der Quelle gewährleistet ist, und verbraucht so wenig Energie, dass es mit einer Batterie laufen kann. Außerdem können Unternehmen es sehr schnell testen und einsetzen.
TinyML etabliert maschinelles Lernen auf winzigen Mikrocontrollern. Diese Ein-Chip-Computersysteme vereinen Prozessor, Peripheriefunktionen und Arbeits- und Programmspeicher und können in batteriebetriebenen Geräten verwendet werden. Und es gibt bereits drei Milliarden Geräte, auf denen ML-Modelle laufen können.
Sprachassistenten zum Beispiel nutzen maschinelles Lernen, um Sprache zu verarbeiten, und greifen dabei auf riesige Datenquellen in der Cloud zurück. Um nun sicherzustellen, dass diese nicht dauerhaft eingeschaltet sind, braucht es einen Auslöser. An dieser Stelle kommt TinyML ins Spiel. Es ist darauf trainiert, auf Signalwörter wie „Hey Siri“ oder „Alexa“ zu reagieren, was dann maschinelles Lernen auslöst, um den Ton in Text zu verwandeln und den Befehl auszuführen.
TinyML-Geräte sind von Natur aus klein und benötigen wenig Strom. In vielen Fällen ist auch die Größe des ML-Modells sehr gering: Die Signalwort-Erkennungsfunktion funktioniert beispielsweise in einem Modell mit einer Größe von gerade einmal 13 Kilobyte. Das entspricht in etwa der Größe eines kleinen Profilfotos in niedriger Auflösung.
Einsatzmöglichkeiten für TinyML
Qualitätssicherung in der Industrie
Im Unterschied zu anderen ML-Anwendungen arbeiten TinyML-Lösungen bei Bedarf offline. Durch die Verwendung von Mikrocontrollern können Geräte über Sensoren Zustandsdaten erfassen, ohne dass eine Internetverbindung nötig ist.
Das ist vor allem für Qualitätskontrollen im verarbeitenden Gewerbe hilfreich, denn anhand einer Bewegungserkennung kann ein TinyML-System sicherstellen, dass die Maschinen reibungslos laufen. Dadurch ist es auch für den Einsatz an abgelegenen Orten wie dem Himalaya oder dem Meeresboden prädestiniert, fernab der Reichweite von 5G-Netzen.
Automobilindustrie und Gesundheitsbranche
Ein weiteres Einsatzgebiet ist die Automobil-Industrie. In Fahrzeugen sind niedrige Latenzzeiten und Offline-Zugriff essenziell. In naher Zukunft werden fortschrittliche Fahrerassistenzsysteme aus vielen kleinen kostengünstigen Sensoren bestehen, die TinyML nutzen, um die Sicherheit des Fahrzeugs zu gewährleisten. Hingegen eignet sich Cloud-basiertes ML für die Navigation und ein reibungsloses Nutzererlebnis.
In der Gesundheitsbranche ist die lokale Verarbeitung von Rohdaten mittels TinyML ein hilfreicher Schritt für verbesserten Datenschutz: Zunächst erfasst ein medizinisches Gerät hochsensible Gesundheitsdaten, die eine TinyML-Anwendung weiterverarbeitet, bevor sie an externe Systeme übertragen werden. So besteht ein deutlich geringeres Risiko, dass Angreifer Zugriff auf die Rohdaten erhalten könnten.
Herausforderungen bei der TinyML-Entwicklung
Maschinelles Lernen auf kostengünstigen Geräten mit geringem Stromverbrauch umzusetzen, ist eine spannende Perspektive – es gilt jedoch, einige Dinge zu berücksichtigen: So ist es etwa wichtig, Modellverzerrungen zu vermeiden und ML-Modelle diskriminierungsfrei zu gestalten. Darüber hinaus gibt es allerdings weitere Herausforderungen für Entwicklerinnen und Entwickler.
Der Offline-Betrieb von Tiny-ML-Geräten etwa erschwert die Software- und Modellaktualisierung. Die Modelle müssen also von Anfang an so sauber wie möglich funktionieren, schon bevor sie in der Hardware verbaut und weltweit verschickt werden. Das gelingt am besten mit kurzen Feedback-Zyklen, die bereits sehr früh im Entwicklungsprozess stattfinden.
Das nötigt Entwicklungsteams zu einem kreativen Umgang mit ML-Ops-Prinzipien für Testen und Entwickeln – noch bevor das finale Design feststeht. Die Größe der Modelle und die Hardware setzen den ML-Funktionen Grenzen. Es hilft, diese Beschränkungen als kreative Möglichkeiten zu betrachten und eine Problemlösung genau auf die jeweiligen Geräte herunterzubrechen.
Auf diesem Weg ist es möglich, TinyML beizubringen, diese eine Aufgabe wirklich smart und effizient zu erledigen. Daraus können auch langfristige Lösungen entstehen: Wir können etwa heute internetlose Mikrocontroller und Sensoren verwenden, deren Batteriekapazität ausreicht, um Bildverarbeitungsmodelle und Audioverarbeitungsalgorithmen zehn Jahre lang zu betreiben.
Einschränkungen als Chance verstehen
Insgesamt überwiegen daher die Vorteile von TinyML: Es ist erschwinglich, leicht zugänglich, sicher und nahtlos einsetzbar – und das bei geringem Platzbedarf. Zukünftig kann diese Technologie auch die Landwirtschaft revolutionieren, etwa indem Geräte mit geringem Stromverbrauch Unkraut aufspüren oder die Qualität von Obst und Gemüse in Echtzeit messen.
Mit stetigem Wachstum des Internet of Things und der Entwicklung hin zu immer kleineren elektronischen Komponenten ist mit einer weiteren Verbreitung von TinyML zu rechnen. TinyML wird zwar nicht im Alleingang die großen Probleme der Welt lösen, aber möglicherweise viele kleine.
Der Ansatz besitzt das Potenzial, die Art und Weise, wie wir künftige Technologien einsetzen, zu verbessern. Insbesondere wenn wir einzelne TinyML-Komponenten, die eine Aufgabe gut erfüllen, zu leistungsfähigen Systemen kombinieren. So lassen sich Edge- und Cloud-Computing zu einem flexiblen, einfach zu implementierenden und skalierbaren System zusammenführen.
* Andy Nolan ist seit 2021 Director of Emerging Technologies bei Thoughtworks und entwickelt dort unter anderem Serviceangebote im Bereich Sustainable Tech und XR. Seine Leidenschaft gilt vor allem dem Einsatz neuer Technologien und Methoden zur Lösung von Problemen der realen Welt.
(ID:49723127)