- Von Peter Schmidt
- 04.12.2023 um 12:40
Im ersten Teil des Blockbusters „Matrix“ (1999) gibt einen Wortwechsel zwischen Morpheus und Neo, in dem die Genialität der Menschheit zum Beginn des 21. Jahrhunderts aus Sicht des 23. Jahrhunderts bewundert wird. Die Hauptfigur Neo antwortet im Dialog: „KI – Sie meinen künstliche Intelligenz.“ Solche Darstellungen in Science-Fiction-Filmen sind nun dabei, von der Fiktion zur gelebten Realität zu werden. Das ist mir Anlass genug, das Thema durch die Vertriebsbrille etwas näher zu beleuchten.
Künstliche Intelligenz hat als Thema und die Möglichkeiten daraus immer mehr Raum in unserem Alltag erobert. Die Ursprünge von künstlicher Intelligenz lagen etwa in den 1930er Jahren mit ihren mathematischen und technischen Anfängen, um kognitive Prozesse auszuführen. Um das Tempo dieser Entwicklung von dann bis jetzt zu veranschaulichen, kann man sich einen Faktor bis zu 100 innerhalb kürzester Zeit vorstellen, wie waitbutwhy.com hervorhebt.
Wie Vermittler künstliche Intelligenz einsetzen
Makler-Apps überzeugen im Test nicht
„Den Schritt vom guten Vermittler zum Unternehmer bewältigen viele nicht“
Ein Blick auf einige Stationen zeigen die Entwicklung von KI. Der Begriff soll 1955 vom Informatiker John McCarthy geprägt worden sein. 1961 ging der erste Industrieroboter bei General Motors in Arbeit und ersetzte Menschen am Montageband. 1997 besiegt der Schachroboter Deep Blue von IBM den Schachweltmeister Garry Kasparow. 2011 ging Siri, der intelligente und virtuelle Assistent von Apple, an den Start. 2014 folgte Alexa von Amazon.
Künstliche Intelligenz ist bereits allgegenwärtig, ohne dass die Nutzer es mit dem Begriff KI vordergründig verbinden. Dazu gehören Text- und Mailsysteme, die Wörter oder Sätze vervollständigen. Streamingdienste, die Filme nach dem individuellem Konsumverhalten vorschlagen. Die Entsperrung von Smartphones per Gesichtsscans, Vorschläge von Versandplattformen für individuell passenden Produktvorschläge oder die halbautonome Steuerung von KFZ.
Gesetzgeber wollen Risiken begrenzen
Bevor ich mich mit möglichen Bedenken und Ängsten gegenüber KI befasse, zunächst ein Blick auf die Bemühungen der Politik zur Begrenzung der Risiken und unerwünschten Nebenwirkungen. Bereits im April 2021 hat die Kommission den ersten EU-Rechtsrahmen für KI vorgeschlagen. „Darin wird empfohlen, dass KI-Systeme, die in verschiedenen Anwendungen eingesetzt werden können, je nach dem Risiko, das sie für die Nutzer darstellen, analysiert und eingestuft werden. Die verschiedenen Risikostufen unterliegen zu mehr oder weniger Regulierung“, wird auf einer Informationsplattform des Europäischen Parlaments ausgeführt. Am 14. Juni 2023 haben die Abgeordneten die „Verhandlungsposition zum Gesetz über künstliche Intelligenz“ angenommen.
Die EU verfolgt einen risikobasierten Ansatz durch eine Klassifizierung nach KI als „Unannehmbares Risiko“, „Hochrisiko-KI-Systeme“, „Generative KI“ und „KI als begrenztes Risiko“. Letzter KI-Systeme mit begrenztem Risiko sollten minimale Transparenzanforderungen erfüllen, die es den Nutzern ermöglichen, fundierte Entscheidungen zu treffen. Nach der Interaktion mit den Anwendungen kann der Nutzer dann entscheiden, ob er sie weiter verwenden möchte.
Auch in den USA und Großbritannien gibt es starke Bemühungen, Bereiche der KI zu regulieren. So gibt es in den USA Aktivitäten um eine Bill of Rights für das KI-Zeitalter, wobei man zur Zeit mit Unterstützung des Vereinigten Königreichs, Kanadas und Israels darauf drängt, den Geltungsbereich der KI-Konvention nur auf öffentliche Einrichtungen zu beschränken und den privaten Sektor auszuschließen.
Der konservative britische Regierungschef Rishi Sunak hatte für Anfang November eine internationale Konferenz zum Thema KI-Sicherheit in Großbritannien anberaumt. Im Ergebnis stellte der britische Premierminister fest:
Es ist ein Meilenstein, dass sich die größten KI-Nationen der Welt über die Dringlichkeit eines besseren Verständnisses der Risiken durch KI geeinigt haben.
Die Erklärung fordert nach Berichten von „ZDF.de“ von KI-Entwicklern, dass sie ihre Pläne zur Überwachung und Eindämmung potenziell schädlicher Auswirkungen ihrer Programme offenlegen. Außerdem müssten sie für die Folgen verantwortlich gemacht werden.
0 Kommentare
- anmelden
- registrieren
kommentieren