Nach allen Regeln der Künstlichen Intelligenz

Nach allen Regeln der Künstlichen Intelligenz

Nach allen Regeln der Künstlichen Intelligenz

 

 

 

 

Dr. Jeannette Gorzala, BSc ist Rechtsanwältin und Gründungspartnerin der Kanzlei go_legal. Ihr Fokus sind Wirtschaftsrecht und KI. Als Vice President des European AI Forum vertritt sie mehr als 2.000 KI-Unternehmen in Europa. Im Web ist sie zu finden unter: www.jeannette-gorzala.com.

Die österreichische Rechtsanwältin Jeannette Gorzala war maßgeblich am Entstehungsprozess des AI Act beteiligt. Als erster Kontinent schafft Europa damit einen Blueprint für die Nutzung von Artificial Intelligence (AI). Im Interview spricht sie zu ihrer Einschätzung dieses Regelwerks und den kommenden Herausforderungen.

Soeben wurde in der EU eine Einigung zum AI Act erzielt. Ist Europa damit am richtigen Weg?

Jeannette Gorzala – Die EU ist mit einem derartig umfassenden Regelwerk Vorreiter und hat die Chance genutzt, einen Rahmen vorzugeben. Man sieht bereits jetzt, das wird global angenommen: In der AI Bill of Rights in den USA finden sich die gleichen kritischen Felder und die gleichen Handlungsempfehlungen. Entscheidend wird jetzt sein, wie dieses Regelwerk implementiert wird. Wie werden die Umsetzung und die Vorgaben, insbesondere im Hochrisikobereich und für generative KI-Modelle, aussehen? Und wie werden sie von der künftigen KI-Behörde exekutiert und überwacht?

Können die Regulierungen zu einer Innovations-Bremse für Künstliche Intelligenz in Europa werden?

Jeannette Gorzala – Natürlich bestehen immer Befürchtungen von Überregulierung, aber dazu muss man sagen: Den AI Act gab es bislang nicht und dennoch haben wir keine großen europäischen Player zu generativer AI. Europa hat den Trend zu spät erkannt und wir haben im globalen Vergleich zu wenig investiert. Extrem schmerzhaft ist auch der Brain Drain: Viele europäische Talente zieht es in die USA. Nicht die Regulierung ist das Hindernis, es geht um wirtschaftliche Effekte und dafür braucht es Standortförderung. Man muss über die Förderung von Unternehmensgründungen und Betriebsansiedelungen ansetzen und qualifizierten Talenten die Zuwanderung erleichtern. Es wird auch oft übersehen, dass der AI Act nicht nur eine Regulierung ist, sondern auch Innovationsräume zum Experimentieren mit KI ermöglicht, beispielsweise die Sandboxes für Startups und KMUs. Darüber hinaus ist der Forschungsbereich vom AI Act ausgenommen und Entwicklungen im Hochrisikobereich werden mit begleitenden Maßnahmen, aber unter realen Konditionen möglich sein.

Wie kann Europa zum Thema AI aufholen?

Jeannette Gorzala – Es ist jetzt nicht sinnvoll, Copycat zu spielen und zu versuchen ein Chat GPT für Europa zu bauen. Ich glaube, die Chance liegt in der nächsten Welle, den multimodalen Modellen, die zum Beispiel Text und Bild kombinieren. Ein sehr interessanter Trend für Europa sind außerdem kleinere, spezialisiertere Modelle. Die Finanzindustrie hat andere Anforderungen als zum Beispiel die Medizin oder der Sicherheitsbereich. Ich sehe eine Chance für solche zielgerichteten Modelle und im Open-Source-Bereich. Wir müssen jetzt nur extrem rasch und mit vereinten Kräften starten. Der AI Act schafft einen KI-Binnenmarkt mit gleichen Regeln für alle, das bringt für Entwickler und für Unternehmen, die KI einsetzen, eine wichtige Erleichterung.

Wie sehen Sie die Vorgaben, die zum Thema biometrische Überwachung getroffen wurden?

Jeannette Gorzala – Alle Parteien haben sich hier um einen Kompromiss bemüht, es war einer der schwierigsten Punkte. Aus meiner Sicht ist es gelungen, dazu eine Lösung zu finden, die alle Positionen angemessen berücksichtigt: die Grund- und Freiheitsrechte zu wahren, aber diese Technologien für den Sicherheitsbereich nicht gänzlich zu verbieten.

Für die Large Language Models gibt es ein zweistufiges Risikosystem. Ist dies aus Ihrer Sicht eine gute Lösung?

Jeannette Gorzala – Wir wissen über diese neuen Modelle noch viel zu wenig, einerseits aus wissenschaftlicher Sicht, andererseits, weil die Anbieter wenig transparent sind. Aus diesem Grund ist es bisher schwierig, das Risiko einzuschätzen. Diesen Punkt adressiert der AI Act sehr gut – durch die Dokumentationsverpflichtungen und die Pflichten, bestimmte Informationen weiterzugeben. Gerade diese Transparenz wird es uns in Zukunft ermöglichen, besser zu verstehen, wie diese Modelle funktionieren und wie Risikostellschrauben gezielt adressiert werden können. Kritisch ist die Kategorisierung nach Flops (Floating Point Operations), also der Rechenleistung, die für das Training der AI-Modelle aufgewendet wurde. Demnach werden nur Modelle mit zumindest 1025 Flops mit systemischem Risiko eingestuft. Ein derartiger mathematischer Wert ist auch einfach zu umgehen. Hier soll es künftig aber zusätzliche Ausführungsakte geben.

 

Header Photo: AdobeStock/nilanka

Hilfe und Kontakt
Schrack Seconet AG          

Eibesbrunnergasse 18
1120 Wien, Österreich
Telefon: +43 50 857
office@schrack-seconet.com

Alle Standorte anzeigen

Support für Kunden

Kundendienst
Kontaktformular

  • en
  • de
  • cs
  • hu
  • it
  • pl
  • ro
  • ru
  • sk
  • sv
  • tr
  • hr
DE