Die künstliche Intelligenz (KI) ist zweifellos eine der bedeutsamsten Technologien unserer Zeit. Sie bietet hohes Potenzial, den Menschen in vielen Bereichen seines täglichen Lebens und bei der Arbeit zu entlasten – z. B. bei der Automatisierung von Routineaufgaben und der Beschleunigung von Arbeitsabläufen. Doch die Medaille hat zwei Seiten. Eine wird auf Grund des aktuellen Hypes oft übersehen: das Risiko.
Wurde mit der Entwicklung von künstlicher Intelligenz die Büchse der Pandora geöffnet? Der Einsatz dieser Technologie kann unvorhersehbare und gefährliche Konsequenzen haben, die schwer zu kontrollieren oder zurückzudrängen sind, wenn sie einmal „freigelassen“ wurden. Der Vergleich liegt also nah.
Ein zentrales Problem ist die Frage der Kontrolle. Die meisten heutigen KI-Systeme sind so konzipiert, dass sie selbstständig lernen und Entscheidungen treffen können, ohne dass menschliche Intervention erforderlich ist. Dies kann zu unerwünschten Ergebnissen führen, wenn das KI-System Entscheidungen fällt, die nicht im Interesse der Menschen sind. Ein Beispiel dafür ist das sogenannte "algorithmische Bias". Hier geht es um algorithmische Vorurteile. Das bedeutet, die KI nimmt eine unfaire oder benachteiligende Behandlung von Personen auf Grund von Ethnie, Einkommen, Geschlecht oder Ähnlichem vor – beispielsweise in Bewerbungsverfahren. Denn z. B. aktuelle Gesichtserkennungsprogramme können Menschen mit heller Hautfarbe besser erkennen als mit dunkler. Es findet also eine unbewusste Diskriminierung statt.
KI öffnet die Tür für Cyberkriminelle
Ein weiteres Risiko der Künstlichen Intelligenz ist, dass sich Cyberkriminelle Schwachstellen in Algorithmen zunutze machen und Daten manipulieren, um bösartige Handlungen vorzunehmen. So können sie zum Beispiel unerwünschte Ergebnisse erzielen oder vertrauliche Informationen stehlen. Viele Angriffe sind nur schwer zu erkennen und zu beheben. Ein drastisches Beispiel für die Folgen einer Manipulation ist ein selbstfahrendes Auto, das durch Fremdeinwirkung zum Unfall gebracht wird.
KI-Systeme, wie Chat GPT u.a., die momentan einen regelrechten Hype erfahren, könnten ebenfalls für bösartige Zwecke eingesetzt werden, beispielsweise, um Benutzerdaten zu stehlen bzw. zu löschen. Eine weitere Gefahr sind Datenschutzverletzungen: KI-Systeme erfordern große Mengen an Daten, um zu funktionieren, was bedeutet, dass sie möglicherweise auch auf sensible Informationen zugreifen. Daraus können sich Datenschutzverletzungen ergeben. Zudem geben die Programme in der Regel keine Quelle an, was es erschwert, die Ergebnisse zu validieren und zu Falschaussagen mit rechtlichen Konsequenzen führen kann.
Je mehr KI-Programme genutzt werden, umso mehr greifen sie in die Lebenswirklichkeit der Menschen ein. Die Programme sammeln immer mehr Daten und können damit Nutzerprofile erstellen. Das bedeutet: Durch die Sammlung und Analyse von Daten können KI-Systeme sehr detaillierte Profile der Nutzer erstellen, die Informationen über deren Verhaltensweisen, Vorlieben und Interessen enthalten. Diese Informationen lassen sich von Unternehmen, Regierungen oder anderen Dritten einsetzen, um gezielte Werbung, Überwachung oder anderes zu betreiben.
Verantwortung übernehmen – dann kann KI zur großen Chance werden
KI ist noch lange nicht am Leistungsgipfel angekommen. Sie wird einige Bereiche des Lebens und Arbeitens revolutionieren und Menschen entlasten. Es gilt, einen verantwortungsvollen Umgang mit der Künstlichen Intelligenz zu fördern. Politik und Wirtschaft müssen sicherstellen, dass KI-Systeme so gestaltet werden, dass sie sicher und ethisch einwandfrei sind. Dazu zählt unter anderem, dass die Vorgaben der DSGVO rechtskonform umgesetzt werden. Zudem muss die Verarbeitung personenbezogener Daten so gestaltet sein, dass nur Befugte auf Daten, IT-Systeme und Prozesse zugreifen können und diese nicht verfälscht werden können. Wenn KI an den sicherheitsrelevanten Stellen ihre Grenzen behält, kann sie zur großen Chance werden.
CARMAO, Spezialist für Unternehmensresilienz, unterstützt Unternehmen dabei, Risiken zu erkennen und Awareness für Datenschutz oder Informationssicherheit zu schaffen.
Für weitere Informationen sprechen Sie uns an unter: 06431-2196-0 oder kontakt@carmao.de.
Ihr
|