Donnerstag, 29. September 2022
Navigation öffnen
Medizin

Künstliche Intelligenz: missbräuchlichen Einsatz verhindern

Künstliche Intelligenz: missbräuchlichen Einsatz verhindern
© sdecoret – stock.adobe.com
Autonome Fahrzeuge können Personen sicher durch den Straßenverkehr bewegen – oder, als Waffe umfunktioniert, in eine Menschenmenge gelenkt werden. KI-gesteuerte Flugdrohnen können Pakete zustellen – oder Drogen liefern. Sprachmodelle können den Kundenservice verbessern – oder täuschend echte Phishing-Mails verfassen, um Schadsoftware in ein Unternehmen zu schleusen. Die nutzbringenden Einsatzmöglichkeiten von KI sind ebenso vielfältig wie die missbräuchlichen Anwendungsfälle. Als „Zweckentfremdung mit negativen Folgen“ beschreiben die Autorinnen und Autoren des Whitepapers „KI-Systeme schützen, Missbrauch verhindern“ den sogenannten Missbrauch von KI-Systemen. Dahinter stehe immer menschliche Absicht unterschiedlicher Akteure mit unterschiedlichen Motiven. Die Expert:innen betonen die besondere Tragweite einer Manipulation von KI-Systemen im Vergleich mit anderen technischen Systemen: So können die Handlungen von Menschen und Maschinen beeinflusst werden, wenn KI-Systeme zur Entscheidungsfindung herangezogen werden.

KI: vielfältige missbräuchliche Anwendungsmöglichkeiten

„Fakt ist, dass KI-Systeme von Kriminellen, staatlichen Organisationen oder wirtschaftlichen Wettbewerbern immer auch für unlautere Zwecke missbraucht werden können – sei es, um Spionage zu betreiben, Falschinformationen zu streuen oder Menschen zu überwachen. Wir müssen deshalb den Blick von Anfang an auf mögliche Schwachstellen richten, vom Design bis zur Wartung“, sagt Jürgen Beyerer, Leiter des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung IOSB. „Wir müssen uns in einen möglichen Täter oder eine mögliche Täterin hineinversetzen und überlegen, welche Angriffsszenarien im konkreten Anwendungsfall denkbar sind. Hierfür sind technische Schutzmechanismen zu integrieren, aber auch organisatorische Vorkehrungen zu treffen.“
 
 

Lesen Sie mehr zu diesem Thema:

Brauchen wir Künstliche Intelligenz in der Pflege?

Erschienen am 27.01.2022Kann Künstliche Intelligenz in der Pflege nützlich sein? Ja, sagen Forschende der Uni Bremen. Wie sie das umsetzen wollen, lesen Sie bei uns!

Erschienen am 27.01.2022Kann Künstliche Intelligenz in der Pflege nützlich sein? Ja, sagen Forschende der Uni Bremen. Wie sie das...

© RS-Studios - stock.adobe.com

Kriminelle Nutzunsmöglichkeiten vorzeitig erkennen und unterbinden

Nicht nur das KI-System selbst, sondern auch seine Daten und Lernprozesse müssen geschützt werden. Zum technischen Schutz der KI-Systeme dienen sowohl klassische Vorrichtungen der Cybersecurity als auch KI-gestützte Instrumente wie die Erkennung von Anomalien oder Identitäten.

„Missbrauch bedeutet dabei nicht notwendigerweise, dass das KI-System gehackt wird, sondern dass es, so wie es ist, für einen nicht beabsichtigten, bösartigen Zweck verwendet wird. So könnte ein autonomes Auto für Angriffe missbraucht werden, oder ein KI-System, das aus Sicherheitsgründen Giftstoffe erkennt, dazu verwendet werden, neuartige, noch giftigere Stoffe zu entwickeln“, erklärt Jörn Müller-Quade, Professor für Kryptographie am Karlsruher Institut für Technologie (KIT) und Leiter der Arbeitsgruppe IT-Sicherheit, Privacy, Ethik und Recht der Plattform Lernende Systeme. „Deshalb müssen schon in der Entwicklung von KI-Systemen Vorkehrungen getroffen werden, die eine derartige kriminelle Nutzung bestenfalls erkennen und unterbinden, zumindest aber deutlich erschweren.“

Klare Prozesse und Regeln für Mitarbeitende

Die Autor:innen des Whitepapers unterstreichen, dass Schutzvorkehrungen auch die Umgebung des KI-Systems berücksichtigen sollten sowie die Menschen, die es entwickeln, anwenden oder kontrollieren. Das Fehlverhalten von Menschen könne in jeder Phase des Lebenszyklus eines KI-Systems zu Risiken führen. Klare Prozesse und Regeln, etwa zum Umgang mit KI im Unternehmen, erschweren einen missbräuchlichen Einsatz. Notwendig sei es, das Wissen zu KI in der Gesellschaft zu stärken und die Auseinandersetzung mit Schwachstellen von KI zu fördern, heißt es im Whitepaper. Zudem empfehlen die Expert:innen, ausgewählte KI-Systeme regelmäßig von unabhängigen Drittstellen auf Schwachstellen überprüfen zu lassen – auch nach deren Zulassung – sowie die Verantwortlichkeiten und Haftung im Fall eines Missbrauchs auf europäischer Ebene zu klären.
 
 

Ausgewählte Beiträge zu diesem Thema:

Digitalisierung, Telemedizin und Apps

Welche digitalen Apps stehen Patient:innen zur Verfügung? Wie weit ist die Digitalisierung im Gesundheitswesen fortgeschritten? Das und mehr hier!

Welche digitalen Apps stehen Patient:innen zur Verfügung? Wie weit ist die Digitalisierung im...

adam121 / Fotolia.com

Quelle: Plattform Lernende Systeme



Sie können folgenden Inhalt einem Kollegen empfehlen:

"Künstliche Intelligenz: missbräuchlichen Einsatz verhindern"

Bitte tragen Sie auch die Absenderdaten vollständig ein, damit Sie der Empfänger erkennen kann.

Die mit (*) gekennzeichneten Angaben müssen eingetragen werden!

Die Verwendung Ihrer Daten für den Newsletter können Sie jederzeit mit Wirkung für die Zukunft gegenüber der MedtriX GmbH - Geschäftsbereich rs media widersprechen ohne dass Kosten entstehen. Nutzen Sie hierfür etwaige Abmeldelinks im Newsletter oder schreiben Sie eine E-Mail an: info[at]rsmedia-verlag.de.