Künstliche Intelligenz (KI) bzw. artificial intelligence (AI) bezieht sich auf Computerprogramme, die in der Lage sind, Aufgaben zu erledigen, die normalerweise menschliche Intelligenz erfordern. Sie verwendet Algorithmen und Daten, um Muster zu erkennen, Entscheidungen zu treffen und Probleme zu lösen. KI wird mittlerweile in allen möglichen Bereichen wie Gesundheit, Finanzen, Verkehr, Marketing und Automobilindustrie eingesetzt, um Prozesse zu optimieren, Vorhersagen zu treffen und innovative sowie kreative Lösungen zu entwickeln.
Potenziell können KI-basierte Technologien dazu beitragen, ländliche Regionen besser mit Gesundheitsdiensten zu versorgen, landwirtschaftliche Erträge durch präzisere Anbaumethoden zu steigern und Bildung durch personalisierte Lernplattformen zu verbessern. Doch wie die Digitalisierung insgesamt, birgt auch Künstliche Intelligenz erhebliche Risiken – und diese nehmen mit der zunehmenden Leistungsfähigkeit und Vernetzung der Systeme weiter zu.
Risiken und Herausforderungen der KI-Nutzung
Ein zentrales Problem ist die Gefahr der sozialen Ungleichheit: Wenn der Zugang zu KI-Technologien ungleich verteilt ist, könnten bestehende Ungleichheiten weiter verschärft werden – etwa zwischen wirtschaftlich starken und schwachen Regionen oder zwischen gut und schlecht ausgestatteten Bildungssystemen.
Hinzu kommt das Risiko des Datenmissbrauchs, denn KI-Systeme sind auf große Datenmengen angewiesen, deren Herkunft, Qualität und Schutz nicht immer gewährleistet sind. Personenbezogene Informationen können ungewollt offengelegt oder missbraucht werden, und Algorithmen können diskriminierende Entscheidungen treffen. Vor allem in sensiblen Bereichen, wie Überwachung und Entscheidungsfindung, kann der Einsatz von KI somit zu Missbrauch und Diskriminierung führen, wenn sie ohne angemessene ethische und rechtliche Rahmenbedingungen eingesetzt wird.
Ebenso kritisch ist der Einsatz von Künstlicher Intelligenz in der Finanzwelt, einem Bereich, der nahezu ausschließlich datengetrieben funktioniert. Bereits heute werden viele Handelsentscheidungen – etwa im Hochfrequenzhandel – durch autonome Algorithmen getroffen. Diese Systeme reagieren in Bruchteilen von Sekunden auf Marktveränderungen, lernen kontinuierlich aus Daten und agieren zunehmend eigenständig. Das führt zu einer enormen Komplexität und Vernetzung, bei der selbst Fachleute kaum noch in der Lage sind, Ursachen und Folgen einzelner Entscheidungen oder Kursbewegungen nachzuvollziehen. Wenn mehrere solcher KI-Systeme gleichzeitig aufeinander reagieren, kann es zu unvorhersehbaren Dynamiken kommen – bis hin zu Marktverwerfungen oder Kettenreaktionen, die sich menschlicher Kontrolle entziehen. Die Gefahr besteht darin, dass wirtschaftliche Stabilität durch undurchschaubare, autonome Prozesse gefährdet wird, deren Entscheidungen nicht mehr demokratisch oder regulatorisch eingehegt werden können.
Besonders besorgniserregend ist zudem die Entwicklung hin zu autonomen, sich selbst weiterentwickelnden KI-Systemen. Wenn mehrere KI-Systeme in komplexen Netzwerken miteinander agieren – beispielsweise in der Finanzwelt, in Lieferketten oder im Bereich der Sicherheit –, können sie sich gegenseitig beeinflussen, ohne dass der Mensch in der Lage ist, diese Wechselwirkungen vollständig zu verstehen oder zu kontrollieren. Solche Systeme könnten Entscheidungen treffen oder Dynamiken auslösen, die weder vorhersehbar noch reversibel sind. Damit besteht die reale Gefahr, dass der Mensch die Kontrolle über Prozesse verliert, die er ursprünglich geschaffen hat – eine Entwicklung, die nicht nur technisch, sondern auch ethisch und gesellschaftlich tiefgreifende Fragen aufwirft.
Ferner wird deutlich, dass Desinformations-Kampagnen zunehmend Künstliche Intelligenz nutzen, um manipulative Inhalte zu erstellen. Diese Versuche stammen häufig von staatlich unterstützten Akteuren und zielen auf die Beeinflussung politischer Diskurse ab. Aber auch das organisierte Verbrechen im Internet unter Verwendung künstlicher Intelligenz nimmt zu. Besonders alarmierend ist die steigende Nutzung von Cyberattacken mithilfe von Deepfakes und ausgeklügelten Erpressungsmethoden.
Regulierung durch den EU AI Act
Nicht nur deshalb hat die EU mit dem sogenannten EU AI Act eine europäische Verordnung zur Regulierung von künstlicher Intelligenz (KI) verabschiedet. Sie stellt die erste umfassende Regelung dieser Art durch eine bedeutende Regulierungsbehörde weltweit dar. Das Gesetz kategorisiert KI-Anwendungen in verschiedene Risikostufen. Anwendungen und Systeme, die ein untragbares Risiko darstellen, wie etwa ein staatlich betriebenes Social Scoring nach dem Vorbild Chinas, sind verboten. Anwendungen mit hohem Risiko, wie ein Tool zur Lebenslaufanalyse, das Bewerber rangordnet, muss spezielle rechtliche Vorgaben erfüllen. Anwendungen, die weder verboten noch als risikoreich eingestuft sind, unterliegen hingegen weitgehend keiner Regulierung.
Trotz dieser EU-Verordnung macht es aber Sinn Richtlinien für die Arbeit mit künstlicher Intelligenz zu formulieren, da diese Richtlinien spezifische, an die Bedürfnisse und Kontexte einzelner Länder, Branchen oder Organisationen angepasste Vorgaben bieten können. Sie ermöglichen es, lokale ethische Standards, gesellschaftliche Werte und besondere Risiken besser zu berücksichtigen, wodurch eine gezieltere und verantwortungsvollere Nutzung von KI gewährleistet wird.
Insbesondere für Organisationen und Vereine ist es oft sehr empfehlenswert klare Richtlinien für die Nutzung von Künstlicher Intelligenz festzulegen.
Sicherung ethischer Standards und Transparenz
So können KI-Systeme komplexe Entscheidungen treffen, und es ist wichtig sicherzustellen, dass diese im Einklang mit ethischen Standards stehen. Richtlinien legen den ethischen Rahmen fest und helfen, sicherzustellen, dass KI-Technologien verantwortungsbewusst eingesetzt werden. Zusätzlich sind transparente KI-Entscheidungen entscheidend, um Vertrauen in die Technologie zu schaffen. Richtlinien ermöglichen es, Transparenzanforderungen zu definieren, sodass Organisations- oder Vereinsmitglieder sowie Rezipierende die Funktionsweise von KI-Systemen nachvollziehen können.
Ferner verarbeiten KI-Anwendungen oft große Mengen sensibler Daten. Richtlinien helfen, Datenschutzrichtlinien und gesetzliche Anforderungen zu definieren und sicherzustellen, dass die Nutzung von KI im Einklang mit geltenden Datenschutzbestimmungen und Compliance-Vorschriften steht. Hierdurch können Vereine und Organisationen potenzielle Risiken im Zusammenhang mit KI identifizieren und proaktiv Maßnahmen ergreifen, um diese zu minimieren. Dies umfasst Risiken im Bereich der Sicherheit oder der Fehlinterpretation von Daten.
Schließlich ermöglichen Richtlinien es Vereinen und Organisationen, Schulungsprogramme für Mitarbeiter oder ehrenamtlich Engagierte zu entwickeln, um das Verständnis für KI zu verbessern und sicherzustellen, dass die Technologie effektiv genutzt wird.
Die Einführung von Richtlinien für die Nutzung von Künstlicher Intelligenz ist somit ein wichtiger Schritt, um die Vorteile dieser Technologie zu maximieren und gleichzeitig sicherzustellen, dass sie im Einklang mit den Werten und Zielen der Organisation bzw. des Vereins steht.
Gleichzeitig gilt es zu beachten, dass der übermäßige Einsatz von KI zur Erhöhung des CO₂-Ausstoßes beitragen kann, da der Betrieb und das Training großer KI-Modelle enorme Mengen an Rechenleistung erfordern, was wiederum zu einem hohen Energieverbrauch führt. Insbesondere das Training von komplexen Modellen benötigt riesige Serverfarmen, die oft aus nicht nachhaltigen Energiequellen gespeist werden und dadurch die Umwelt belasten.
Im Folgenden soll daher auch auf die allgemeinen ökologischen Auswirkungen der Digitalisierung eingegangen und untersucht werden, wie digitale Technologien zur Umweltbelastung beitragen und welche Ansätze zur Minimierung dieser Effekte bestehen.

