Anzeige
heise meets …

KI-Verordnung: Womit Start-ups rechnen dürfen

Die Stoßrichtung des EU AI Acts ist die Regulierung, mit einem risikoorientierten Ansatz und weitreichenden Ausnahmen. Zugleich bekommen auch Start-ups Zugang zu den EU-Hochleistungsrechenressourcen. Im internationalen Wettbewerb könnten die EuroHPC-Supercomputer tatsächlich den Unterschied machen.

Supercomputer für alle

Von Dirk Bongardt

Wenn es um technologischen Fortschritt geht, liefern sich China und die USA ein Kopf-an-Kopf-Rennen. Und Europa? Trabt gemächlich hinterher, so zumindest der Eindruck. Mit den Durchbrüchen auf dem Gebiet der künstlichen Intelligenz (KI) könnten die Karten neu gemischt werden. Mit dem EuroHPC-Programm und dem Artificial Intelligence Act (AI Act) will die Europäische Union dafür sorgen, dass europäische Unternehmen, nicht zuletzt auch KMU, Start-ups und Ideenschmieden, hier endlich ein besseres Blatt auf die Hand bekommen. Aber vor allem der AI Act trägt nicht nur neue Chancen in sich, sondern stellt Unternehmen auch vor neue Herausforderungen.

Das EuroHPC-Programm

Das EuroHPC JU (Langtitel: European High-Performance Computing Joint Undertaking) ist ein von der EU initiiertes Programm, das den Zugang zu Ressourcen des Hochleistungsrechnens (HPC), insbesondere zu Supercomputern, für verschiedene Einrichtungen, darunter auch Start-ups, verbessern soll. Dieses Programm zielt darauf ab, einer großen Zahl von öffentlichen und privaten Institutionen und damit auch Start-ups einen privilegierten Zugang zu Supercomputern zu ermöglichen, damit sie deren Rechenleistung für ihre Projekte und Innovationen einsetzen können.

Die EuroHPC-Initiative bietet Start-ups und Ideenschmieden die Chance, hochmoderne Supercomputing-Funktionen zu nutzen, die Aufgaben wie das Training großer KI-Modelle erheblich beschleunigen können. Das bedeutet für KMU vor allem einen enormen Kostenvorteil gegenüber der Nutzung kommerzieller Angebote. In der EU erhofft man sich mit der Bereitstellung dieser Ressourcen, dass Start-ups die Rechenpower nutzen, um innovative Produkte und Dienstleistungen zu entwickeln, die eine solch hohe Rechenleistung erfordern.

Darüber hinaus trägt EuroHPC dazu bei, ein Ökosystem zu schaffen, in dem die Unternehmen mit Experten, Forschern und Endnutzern in KI-Fabriken zusammenarbeiten können. Diese KI-Fabriken sind offene Ökosysteme rund um europäische Supercomputer, die allen Beteiligten unter anderem eine zentrale Anlaufstelle für die Entwicklung generativer KI-Modelle bieten. Das Programm stellt gleichzeitig sicher, dass nur „ethische“ KI-Unternehmen, die sich Prinzipien wie dem KI-Pakt verpflichtet haben, Zugang zu diesen Ressourcen erhalten.

Zugang zu den EuroHPC-Ressourcen

An vorderster Front der Institutionen, die EuroHPC-Ressourcen nutzen können, stehen solche, die sich auf künstliche Intelligenz und Innovationen im Bereich der vertrauenswürdigen KI fokussieren. Die Europäische Kommission hat angekündigt, den Zugang zu ihren Hochleistungsrechnern (HPC) zu erweitern, indem sie es „verantwortungsbewussten“ KI-Start-ups erlaubt, ihre Modelle auf diesen Supercomputern zu trainieren. Darüber hinaus sollen auch Institutionen und Initiativen aus der Forschung Zugang zu den EuroHPC-Supercomputern erhalten.

Fördermöglichkeiten zur Nutzung von EuroHPC-Ressourcen umfassen eine Kombination aus Beiträgen der Europäischen Union und der Mitgliedstaaten, um die Betriebskosten der EuroHPC-Supercomputer zu decken. Die EU leistet einen Beitrag von 7 bis 15 Millionen Euro, der durch eigene Zuschüsse der Mitgliedstaaten von 13 bis 28 Millionen Euro pro Supercomputer ergänzt wird, um den Erwerb und Betrieb von Mittelklasse-Supercomputern verschiedener Leistungsstufen zu ermöglichen.

Zusätzlich gibt es Förderungen, die die Betriebskosten der EuroHPC-Supercomputer im Zusammenhang mit dem Anteil der Union an den Energiekosten abdecken. Der EU-Beitrag wird aufgrund gemeldeter gestiegener und angefallener Energiekosten berechnet, wobei der maximale Gesamtbeitrag von EuroHPC JU für Petascale-Supercomputer bei 35 % und für Pre-Exascale-Supercomputer bei 50 % liegt.

Ein konkretes Beispiel für ein Unternehmen, das vom EuroHPC-Programm profitieren kann, ist beispielsweise das niederländische Start-up Cradle.bio, das generative KI einsetzt, um Biologen dabei zu unterstützen, verbesserte Proteine zu entwickeln. Der Einsatz von KI hat die Zeit, die benötigt wird, um solche Proteine zu entwerfen, um die Hälfte reduziert.

ITuK.0224.jpg

Schwarz auf Weiß
Dieser Beitrag ist zuerst in unserer Magazin­reihe „IT & Karriere“ erschienen. Einen Über­blick mit freien Down­load-Links zu sämt­lichen Einzel­heften be­kommen Sie online im Presse­zentrum des MittelstandsWiki.

KI-Regulierung und die Folgen

Lang wurde gestritten, doch am 13. März 2024 hat das EU-Parlament den AI Act verabschiedet. Auf der Website des EU AI Acts gibt es ergänzend auch einen Überblick über die wichtigsten Daten, die für die Umsetzung des KI-Gesetzes relevant sind. Das Gesetz, eines der ersten seiner Art weltweit, soll die Risiken eingrenzen, die mit der breiten Palette von KI-Technologien verbunden sind. Dazu soll der AI Act Leitlinien für den ethischen und verantwortungsvollen Einsatz von KI bei europäischen Unternehmen, Organisationen und Verbrauchern festlegen. Für Start-ups und Ideenschmieden, die KI in ihre Technologie integrieren oder ein Monetarisierungsmodell mit einem KI-Element aufbauen wollen, ergeben sich daraus sowohl Herausforderungen als auch Chancen.

Der AI Act folgt einem risikobasierten Ansatz, der KI-Anwendungen verbietet, die die Sicherheit gefährden oder diskriminierend wirken könnten. Unternehmen müssen genau bewerten, ob die von ihnen entwickelte Technologie als ein verbotenes oder hochriskantes KI-System eingestuft werden könnte. Für Technologien in spezifischen Bereichen – etwa im Gesundheitssektor – könnte dies zusätzliche Offenlegungen und Dokumentationen nach sich ziehen.

Der AI Act im Schnelldurchlauf

Mit dem AI Act ist dem EU-Parlament, bei aller berechtigter Kritik, ein großer Wurf gelungen. Hier die wichtigsten Fakten kompakt zusammengefasst:

  • Klassifizierung von KI-Anwendungen: Der AI Act teilt KI-Anwendungen in vier Risikoklassen ein, basierend auf dem Gefährdungspotenzial, das sie darstellen.
  • Verbot bestimmter KI-Systeme: KI-Systeme mit nicht akzeptablem Risiko wie „Social-Scoring-Systeme“ sind komplett verboten.
  • Transparenzpflichten: KI-Modelle müssen Transparenzpflichten erfüllen, insbesondere bei leistungsstarken Modellen.
  • Sicherheitsanforderungen: Anbieter von KI-Anwendungen mit hohem Risiko, etwa in kritischen Infrastrukturen oder im Personalwesen, müssen strengere Sicherheitsanforderungen erfüllen. Dies umfasst Aspekte wie Nachvollziehbarkeit, Risikomanagement und Cybersicherheit.

Diese Maßnahmen sollen sicherstellen, dass künstliche Intelligenz verantwortungsbewusst eingesetzt wird und Menschen nicht gefährdet oder benachteiligt werden.

Strenge Auflagen

Komplett verboten sind KI-Anwendungen mit einem nicht akzeptablen Risiko und solche, die im Widerspruch zu den Werten stehen, die in der EU gelten, wie etwa „Social-Scoring-Systeme“. KI-Systeme mit einem hohen Risiko, zum Beispiel in kritischen Infrastrukturen oder im Personalwesen, müssen strenge Sicherheitsanforderungen erfüllen. Diese Anforderungen beinhalten Aspekte wie Nachvollziehbarkeit, Risikomanagement und Cybersicherheit.

Besondere Aufmerksamkeit erfordert der Einsatz von biometrischer Identifikation und generativer KI. In Bezug auf biometrische Identifikation verbietet der AI Act den Einsatz von Echtzeit-Fernbiometrie-Identifikationssystemen in öffentlich zugänglichen Räumen. Auch für Systeme der generativen KI gelten strenge Richtlinien, und Unternehmen, die solche Systeme nutzen, sind zu einer Reihe von Maßnahmen verpflichtet:

  • Modellbewertungen: Die KI-Modelle müssen regelmäßig überprüft werden, um sicherzustellen, dass sie ordnungsgemäß funktionieren und keine unerwünschten Auswirkungen haben.
  • Bewertung und Minderung systemischer Risiken: Es ist wichtig, die potenziellen Risiken zu identifizieren und Maßnahmen zu ergreifen, um diese Risiken zu reduzieren oder zu beseitigen.
  • Adversarielle Tests: Diese Tests dienen dazu, die Robustheit der KI-Modelle gegenüber Angriffen oder Manipulationen zu prüfen, um sicherzustellen, dass sie zuverlässig und sicher sind.
  • Meldepflicht bei schwerwiegenden Vorfällen: Im Falle von ernsthaften Problemen oder Zwischenfällen müssen die Anbieter dieser KI-Modelle diese Vorfälle melden und entsprechende Maßnahmen ergreifen, um sie zu beheben und zukünftige Probleme zu verhindern.

KI: Vertrauen, Akzeptanz und Erfolg

Mit gemischten Gefühlen verfolgen viele EU-Bürger die Entwicklung von KI. Das reicht von euphorischer Faszination bis zu völliger Ablehnung. Der Verlust von Arbeitsplätzen ebenso wie die Errichtung von Überwachungsstrukturen zählen zu den größten Befürchtungen. Durch die Schaffung eines klaren rechtlichen Rahmens für die Entwicklung und den Einsatz von KI-Modellen kann der AI Act dazu beitragen, das Vertrauen der Nutzer in KI-Technologien zu stärken. Dies ist besonders wichtig, da dieses Vertrauen eine entscheidende Rolle für die Akzeptanz und den Erfolg von KI-basierten Produkten und Dienstleistungen spielt.

Ein Ziel des AI Act ist es, KI als Treiber für das Wirtschaftswachstum zu nutzen. Durch die Einführung von „regulatory sandboxes“ bietet der AI Act Unternehmen die Möglichkeit, innovative KI-Anwendungen in kontrollierten Umgebungen zu testen und zu validieren, bevor sie auf den Markt gebracht werden. Diese Sandboxes dienen dazu, Innovatoren und Regulierungsbehörden zusammenzubringen. Durch diese Zusammenarbeit sollen sich Best Practices etablieren, die eine Umsetzung der zukünftigen Regeln erleichtern. Letztendlich bieten diese Sandboxes eine Plattform für die Entwicklung neuer KI-Technologien unter verlässlicher Einhaltung der gesetzlichen Anforderungen.

Das Europäische AI Office soll eine Schlüsselrolle bei der Implementierung des AI Acts spielen. Das Büro wird Regeln für allgemeine KI-Modelle durchsetzen und ein innovatives Ökosystem vertrauenswürdiger KI fördern, um die gesellschaftlichen und wirtschaftlichen Vorteile zu nutzen. Das AI Office unterstützt auch Start-ups bei der Anpassung an die neuen Vorschriften, indem es Leitlinien und Codes of Practice bereitstellt, die bei der Umsetzung der gesetzlichen Anforderungen helfen.

KI in Anwenderunternehmen

Auswirkungen auf die Nutzung von KI in europäischen Unternehmen, die selbst keine KI-Anwendungen entwickeln, hat der von der EU verabschiedete AI Act freilich auch. Er legt strenge Regeln für große, leistungsstarke KI-Modelle fest, um sicherzustellen, dass sie keine systemischen Risiken darstellen und starke Schutzmaßnahmen für Bürger, Demokratien und die Wirtschaft bieten. Die meisten in der EU verwendeten KI-Systeme fallen in diese Kategorie. So dürfen Unternehmen weiterhin KI-Systeme wie Microsoft Copilot, Gemini oder ChatGPT nutzen, sofern diese Systeme als minimal-riskant eingestuft werden. Und auch die freie Nutzung von minimal-riskanten KI-Anwendungen, wie beispielsweise KI-fähigen Videospielen oder Spam-Filtern, bleibt erlaubt.

Für hochriskante KI-Systeme gelten jedoch klare Verpflichtungen, einschließlich einer obligatorischen Bewertung der Auswirkungen auf die Grundrechte. Unternehmen müssen auch sicherstellen, dass ihre Systeme den Transparenzanforderungen entsprechen und Berichte über schwerwiegende Vorfälle erstatten. Wer diese Regeln missachtet, muss mit empfindlichen Geldstrafen rechnen.

Auch für KI-generierte Inhalte und Interaktionen mit KI gelten strenge Regeln: Nutzer müssen etwa wissen, ob sie mit einem Chatbot anstelle eines menschlichen Ansprechpartners kommunizieren, und KI-generierte Bilder, Texte und Videos müssen als solche klar gekennzeichnet sein.

Ein solider Rahmen für KI

Generell aber bieten der EU AI Act und das EuroHPC-Programm europäischen Unternehmen neue Chancen im KI-Sektor. EuroHPC ermöglicht auch kleinen und mittleren Unternehmen sowie Start-ups den Zugang zu Supercomputing-Ressourcen, während der AI Act einen klaren regulatorischen Rahmen setzt. Doch neben den Chancen stehen auch Herausforderungen, wie Dokumentationspflichten und strenge Richtlinien für bestimmte KI-Anwendungen. Insgesamt bietet der AI Act KMU und Start-ups einen soliden Rahmen. Auch wenn, wie schon bei der DSGVO, die konkreten Auswirkungen erst dann sichtbar werden, wenn der AI Act (voraussichtlich im dritten Quartal 2026) verbindlich wird.

Dirk Bongardt-Quadrat.jpg

Dirk Bongardt hat vor Beginn seiner journalistischen Laufbahn zehn Jahre Erfahrung in verschiedenen Funktionen in Vertriebsabteilungen industrieller und mittelständischer Unternehmen gesammelt. Seit 2000 arbeitet er als freier Autor. Sein thematischer Schwerpunkt liegt auf praxisnahen Informationen rund um Gegenwarts- und Zukunftstechnologien, vorwiegend in den Bereichen Mobile und IT.


Dirk Bongardt, Tel.: 05262-6400216, mail@dirk-bongardt.de, netknowhow.de

Nützliche Links

Anzeige
heise meets …