"Wéi den Droit duerch KI forméiert gëtt, ass natierlech ganz spannend"
© Michèle Finck
Ëmmer méi Kënschtlech Intelligenze bidden de Leit ëmmer méi Méiglechkeeten - gudder a geféierlecher. Dofir musse se regléiert ginn, fënnt d'Michèle Finck.
Kënschtlech Intelligenz ass "potentiell déi bedeitendst technologesch Entwécklung vun dëser Zäit", fënnt d'Michèle Finck, Professer fir Recht a Kënschtlech Intelligenz op der Uni Tübingen.
Justiz muss op nei Intelligenze reagéieren
Ëmmer méi Kënschtlech Intelligenze ginn entwéckelt a bidden de Leit ëmmer méi Méiglechkeeten – gudder, awer och geféierlecher. Esou muss och d'Justiz sech adaptéieren an déi nei Technologië regléieren. A genee dat ass et, wat d'Michèle Finck schonn ëmmer interesséiert huet. Wärend hiren Droitsetuden huet si sech "ëmmer méi dofir interesséiert, wéi den Droit op Changementer reagéiert, sozial Changementer, mä eben och technologescher, a genau deen Interessi hunn ech och am Bezuch op verschidden Theeme verfollegt a sinn dann eben och iergendwann eng Kéier beim Theema KI gelant, well dat potentiell déi bedeitendst technologesch Entwécklung vun eiser Zäit ass. An d'Fro wéi den Droit dorop reagéiert an och wéi den Droit duerch KI forméiert gëtt, ass natierlech ganz spannend".
Virun allem Froe wéi, "Wat bewierkt déi Technologie?", "Wéi gesäit se an der Zukunft aus?" a "Sinn do Ajustementer am Droit noutwenneg oder net?", interesséieren d'Professer fir Recht a Kënschtlech Intelligenz. Fir d’Michèle Finck ass "den Droit d’Instrument, duerch dat d’Gesellschaft sech Form gëtt, duerch dat d’Gesellschaft sech Reegele gëtt. An esou Reegele sinn natierlech och ëmmer noutwenneg am Bezuch op Technologien". Grad wéi e Messer, dat engersäits als "nëtzlech Technologie" ka genotzt, anerersäits awer och als Waff, bräicht d’KI Reegelen. Reegelen, duerch "déi natierlech och net, den Notze vun der Technologie net ageschränkt" wier. "An déi Kärfro, déi Balance, wéi den Droit Balance schaaft tëscht den Notzen an de Riske vun enger Technologie, ass et eigentlech ëmmer scho ginn an déi stellt sech natierlech elo op villfälteg Aart a Weis am Bezuch op Kënschtlech Intelligenz", erkläert d’Michèle Finck.
Méi Harmonisatioun um EU-Marché duerch AI Act
Zanter August 2024 ass de faméisen AI Act a Kraaft – eng gesetzlech Reegelung op europäeschem Niveau fir Kënschtlech Intelligenzen. De "Basisgedanke" vum AI Act wier et net, Kënschtlech Intelligenzen anzeschränken, ma "esou vill wéi méiglech Harmonisatioun an Homogenitéit un Norme bannent der EU ze ginn, fir eben den europäesche Marché ze stäerken".
"Wat d’Substanz vum AI Act ubelaangt, kann ee sech dat am Beschte virstelle wéi en extreem laangt a komplext Gesetz, dat e bëssen d’Funktioun huet vun engem Prabbeli. An ënnert dem Prabbeli vum AI Act fanne mer en fin de compte lauter verschidde Kapitelen, déi ganz verschidden Zwecker hunn an deelweis och ganz verschidden Aarte vu Kënschtlecher Intelligenz betreffen." Den AI Act wier an den Ae vun der Michèle Finck éischter en "Ensembel vu verschidden Normen, déi verschidden Zwecker hunn an och verschidden Acteuren an Technologië betreffen".
Am drëtte Kapitel zum Beispill géing et ëm Reegele fir sougenannten "Héichrisiko-KI-Systemer". "Dat sinn zum Beispill KI-Systemer, déi benotzt ginn an Häerzschrëttmacheren oder aner medezineschen Instrumenter. An heifir ginn et Reegelen, dass ee muss oppassen, wéi eng Daten eng ausräichend gutt Qualitéit hunn." Mesurë wéi Cybersecuritéit sollen "dozou déngen, dass déi Héichrisiko-KI-Systemer herno och esou funktionéieren, wéi se funktionéiere sollen an déi Risiken ebe miniméiert sinn".
Kënschtlech Intelligenz ka fir Guddes a Schlechtes genotzt ginn
Aarbechtskolleege vun der Michèle Finck op der Uni zu Tübingen hunn d’KI genotzt, "fir Kriibs méi fréi z’erkennen oder fir nei Decouverten ze maachen, wéi d’mënschlecht Gehier funktionéiert zum Beispill". Anersäits kann d'KI genotzt ginn, "fir cheemesch Waffe méi einfach hierzestellen". "D’KI ass eigentlech eng Technologie, déi ee fir all méiglech Goler kann uwenden. An déi kënnen natierlech gutt oder schlecht sinn."
Dateschutzrecht an AI Act funktionéiere parallel
Den AI Act wier och net mam Dateschutzrecht ze verwiesselen, och wann Daten och eng Roll am AI Act vun der EU spillen. "Déi meescht Provisiounen am AI-Act bezéie sech net onbedéngt op Daten, mee wierklech op de KI-System, fir deen natierlech Daten och genotzt ginn. An an dësem Zesummenhang muss een onbedéngt och soen, dass an deene meeschte Fäll d’europäescht Dateschutzrecht an den AI-Act hei awer parallel wäerten ugewannt musse ginn."
Wéi sech d’Gesetz auswierke wäert, kéint d’Michèle Finck elo nach net soen. "Do feelen eis einfach Daten, fir ze wëssen, wéi se sech auswierke wäert kënnen." D'Reegele vum AI Act wieren "net ganz streng" a wäerten der Michèle Finck no "deementspriechend warscheinlech och relativ wéineg prakteschen Impakt" hunn "a sécherlech net de Business Model vun de Betriber änneren." Och wann den AI Act der Professer no éischter "Reegelen" an "Norme" sinn, gesäit d’Gesetz Strofe vir. Dës géinge sech "un der europäescher Dateschutzrechtsveruerdnung orientéieren" a gesinn "relativ héich Strofe vir, déi sech entweder um Ëmsaz vun der Firma orientéieren oder aus enger fixer Zuel an déi ass duerchaus a Milliounenhéicht", betount d'Michèle Finck.
Staark Ënnerscheeder tëscht EU-Staate bei Ëmsetzung vun AI Act
D'Ëmsetzung vum AI Act leeft éischter lues un. Virun allem missten d’EU-Memberstaaten elo "dofir suergen, dass et am nationale Beräich verschidden Organisme ginn, déi fir d’Ëmsetzung vum Gesetz zoustänneg sinn". Dozou kéim, dass "déi Organismen - déi neier oder bestoender kënne sinn - adequat finanziell Mëttel" missten hunn "an och adequat gutt ausgerëscht sinn, wat kompetent Mënsche betrëfft, déi do schaffen". Esou géing et "op d'mannst um Ufank" scho "relativ staark Ënnerscheeder tëscht de verschidden États-Membre".
"Schlecht beschriwwent" Gesetz
Gréisst Erausfuerderung wier fir d'Professer, dass d'Gesetz "laang" a "schlecht beschriwwen" ass. "An dat suergt fir ganz vill Onsécherheeten, wéi verschidden Obligatiounen oder Begrëffer am Gesetz ze interpretéiere sinn." Verschidden Artikelen am AI Act géinge sech nämlech "op aner Artikele bezéien an do déi falsch Nummer nennen, sou dass een eigentlech muss roden, wat do gemengt ass". Deelweis géing et och "widderspréchlech Definitioune vum selwechten Terminus am AI-Act." Dat wier fir d'Michèle Finck den "Haaptproblem am Gesetz", awer e Problem, "dee jee nodeem wäert potentiell geléist ginn". Mam Digital Omnibus Package wéilt d'EU nämlech "déi verschidde Gesetzer, déi an de leschte Joren am Bezuch op d’digital Ekonomie zu Bréissel geschaaft" goufen, "iwwerschaffen, fir se méi einfach, méi koherent a letztendlech och einfach besser ze gestalten".
KI bréngt immenst Fuerschungspotential
Der Michèle Finck hir "Haaptmotivatioun, fir op dësem Beräich ze fuerschen, ass letztendlech, dass et extreem vill oppe Froe gëtt, déi nach net beäntwert sinn. Dass et e ganz neie Gesetzeskader gëtt, dee fir déi Technologie geschaaft ass. An do läit natierlech extrem vill Fuerschungspotential, dat ech immens spannend fannen. Allgemeng hoffen ech, dass mer et fäerdegbréngen, d'KI esou vill wéi méiglech fir gutt Zwecker ze notzen, wéi nei Therapië fir Krankheeten ze fannen zum Beispill Effizienzen ze schafen, fir einfach lästeg Tâchen op der Aarbecht duerch KI erleedegen ze loossen, sou dass de Mënsch méi kreativen a méi spannenden Aarbechte kann nogoen".
Wann een un den AI Act denkt, vergësst een dacks, datt e wichteg fir den Europäesche Bannemaart ass, "well all Firma, déi an Europa aktiv ass, sech soss mat 27 verschiddene Gesetzeskadere muss auserneesetzen, amplaz vun engem spezifeschen".