Autor: Stephan Schmitz, Lebensmitteltechnologe, KI Manager (IHK)
Stand: Mai 2026
Wer KI im Unternehmen nutzt, sollte jetzt zwei Dinge angehen:
Prozesse intern sauber einordnen und eine Roadmap für die aktuelle und künftige Gesetzeslage aufbauen.
Kernaussage
Die jüngste politische Einigung auf EU-Ebene vereinfacht und verschiebt Teile der AI-Regeln, vor allem im Bereich sogenannter High-Risk-Systeme.
Für Food-KMU bedeutet das: weniger unmittelbarer Umsetzungsdruck bei komplexen, regulierungsnahen AI-Anwendungen, aber kein Aufschub bei Transparenz, Governance und der strukturierten Erfassung der bereits eingesetzten AI-Tools.
Was sich regulatorisch ändert
Teile der strengeren Vorgaben für High-Risk-AI werden zeitlich nach hinten verschoben, damit technische Standards, Leitlinien und Umsetzungsinstrumente rechtzeitig verfügbar sind.
Stand-alone High-Risk-Systeme sollen erst ab Dezember 2027 greifen, High-Risk-AI in regulierten Produkten erst ab August 2028.
Gleichzeitig zieht die EU beim Thema Transparenz an: KI‑generierte Inhalte sollen für Nutzer klarer erkennbar werden, und für bestimmte missbräuchliche Einsatzformen generativer KI gelten künftig klare Verbote. Im Fokus stehen vor allem synthetische Inhalte mit meinungsbildender Wirkung – etwa Beiträge zu Politik, Gesellschaft oder Kultur, die kaum noch von echten Inhalten zu unterscheiden sind.
Auch wenn FoodTechFuture.de als B2B‑Plattform nicht zu diesen klassischen Medien gehört, gehen wir hier bewusst in Vorleistung und machen unseren KI‑Einsatz transparent – unter anderem mit einem Hinweis im Impressum.
Diese Infografik wurde mit KI-Unterstützung von Nano Banana 2.0 erstellt
Konsequenz für die Unternehmensführung
Die Vereinfachung der Regeln ist kein Signal zum Abwarten, sondern ein Zeitfenster für saubere Vorbereitung.
Unternehmen, die jetzt AI-Bestand, Verantwortlichkeiten, Lieferantenanforderungen und Transparenzprozesse aufsetzen, reduzieren spätere Reibung, vermeiden Compliance-Überraschungen und schaffen eine belastbare Basis für produktive AI-Anwendungen im Betrieb.
Bedeutung für KMU Lebensmittelbranche
Für typische Lebensmittelhersteller und Gemeinschaftsverpflegung liegt das größte Risiko kurzfristig meist nicht in vollumfänglicher High-Risk-AI.
Vielmehr liegt es in einem unkontrollierten Einsatz vieler einzelner AI-Tools in Marketing, Büroarbeit, Dokumentation, Qualitätsmanagement oder bei Lieferantenlösungen.
Besonders relevant ist daher nicht nur die Frage „Nutzen wir AI?“, sondern „Wo genau, wofür, mit welchen Daten und über welche Anbieter?"
Wenn AI-Funktionen über Maschinen, Kamerasysteme, Inspektionslösungen oder Software externer Anbieter in den Betrieb kommen, muss die AI-Compliance frühzeitig Teil von Einkauf, Spezifikation und Lieferantenbewertung werden.
Für interne generative AI-Nutzung steigt parallel der Bedarf an klaren Regeln zu Freigaben, Kennzeichnung, Datenschutz, Dokumentation und Verantwortlichkeiten.
Management-Empfehlungen für die EU-AI Act VO
Stand-alone High-Risk-Systeme sollen erst ab Dezember 2027 greifen, High-Risk-AI in regulierten Produkten erst ab August 2028.
Wer verantwortungsvoll agiert, kümmert sich spätestens ab jetzt, -falls bisher nicht geschehen -, diese Punkte schrittweise in einer Roadmap auf die Agenda zu setzen:
- AI-Inventur in 30 Tagen starten: Alle genutzten AI-Tools, Pilotprojekte, Lieferantenlösungen und Schattenanwendungen erfassen; je Anwendung Zweck, Datenarten, Verantwortliche und Außenwirkung dokumentieren.
- Use Cases nach Risikoklassen ordnen: Zwischen Office-/Produktivitäts-AI, generativer Außenkommunikation, lieferantenseitiger Embedded-AI und potenziell sensiblen Anwendungen unterscheiden.
- Einfache AI-Governance festlegen: Eine verantwortliche Rolle benennen, Freigaberegeln definieren und ein kurzes AI-Policy-Dokument für Mitarbeitende erstellen.
- Lieferanten aktiv prüfen: Bei Maschinen-, Sensorik-, Software- und Vision-Anbietern gezielt nach AI-Funktionen, Konformität, Update-Politik, Datenflüssen und Dokumentation fragen.
- Transparenz sofort absichern: AI-generierte Inhalte in Marketing, HR oder externer Kommunikation organisatorisch kennzeichnen und einen Freigabeprozess aufsetzen.
- Roadmap mit Blick auf die Gesetzeslage in 2027/28 anlegen: Für relevante Qualitäts-, Sicherheits- oder personalbezogene AI-Anwendungen frühzeitig bewerten, ob künftig strengere Anforderungen greifen könnten.