Künstliche Intelligenz: Fluch oder Segen?

Interview mit Felix Cemos

Was ist die KI? Was ist das „Künstliche“ daran und was das „Intelligente“?

Um diese Frage zu klären, muss der historische Kontext einbezogen werden, denn der Begriff der „Künstlichen Intelligenz“ ist schon älter, als viele vermuten mögen. Er kommt aus einer Zeit, in der das Internet noch lange nicht geschaffen war: der US-Informatiker und Logiker John McCarthy prägte den Begriff 1955 im Antrag auf die erste Konferenz zum Thema1. Er beschreibt damit primär die Fähigkeiten einer Maschine, eigenständig Sachverhalte zu lernen bzw. diesen Prozess zu simulieren. Dazu zählen unter anderem die (menschliche) Sprache – und Verständnis deren Kontexts -, Kreativität der Maschine, oder Selbstverbesserung als Reaktion auf Umwelteinflüsse, aber auch die Modellierung menschlicher Denkprozesse. Zur Zeit der Begriffsprägung waren zwar bereits die ersten Computer im Einsatz, allerdings füllten die Rechenschränke noch ganze Räume, hatten aber weniger Rechenleistung als jedes moderne Mobiltelefon und waren weit davon entfernt zu „denken“. In McCarthys Vorstellung handelt die KI also vom Wunsch, Probleme zu lösen, was bis dato nur dem Menschen vorbehalten waren, anstatt lediglich Berechnungen oder Buchhaltungen mithilfe von Maschinen durchzuführen.

Jedoch ist der Begriff – wie so oft – nicht exakt definiert, da „Intelligenz“ ebenso schwer zu definieren ist. Muss ein künstlich erschaffenes System sich also ununterscheidbar von einem menschlichen Wesen verhalten oder nur einen Teil dessen abbilden? Muss es eine Art Selbstbewusstsein haben? Um den Anteil der „Intelligenz“ besser verstehen zu können, muss man sich vor Augen führen, wie digitale Computer, wie wir sie kennen und nutzen, funktionieren: Üblicherweise mit einem Prozessor und Speicher ausgestattet, führen sie nach und nach eine Folge von Aufgaben auf kleinster Ebene durch. Nimm den Wert aus dem Speicher an Stelle x und addiere dazu den Wert aus dem Speicher an Stelle y. Alles deterministisch, vorhersehbar. Ein Großteil der Programme, die wir im Alltag verwenden, agiert genau so nach diesem sogenannten imperativen Programmierstil. Wir geben die gleiche Eingabe und erwarten die gleiche Ausgabe.

Programme, mit denen wir interagieren und die wir als künstliche Intelligenz bezeichnen, müssen zwar auch mit einer Reihenfolge von einzelnen Instruktionen auskommen, allerdings verarbeiten sie unsere Eingaben ganz anders und können auf verschiedene, sehr unterschiedliche Eingaben reagieren. Sie bedienen sich an einprogrammierten Abstraktionen (wie z.B. neuronalen Netzen) und mathematischen Algorithmen oder auch dem Zufall.

Doch werden manchmal auch Lösungen gewählt, die zumindest auf den zweiten Blick nicht sonderlich intelligent erscheinen: In den 1960er/70er Jahren wurden sogenannte Expertensysteme entwickelt. Solche Programme nehmen auf Grundlage einer Wissensbasis bestimmte Fakten als wahr an (sog. closed world assumption) und helfen dabei, logisch korrekte Schlussfolgerungen zu ziehen. Dabei gibt es keine Garantie auf Vollständigkeit der Regeln. Statt eines genauen Ablaufs an Instruktionen, werden also Fakten und Fragen vorgegeben, das System findet selbst eine Lösung, wenn es denn eine solche gibt. Eine Programmiersprache, die zur Erstellung von Expertensystemen genutzt wurde, ist Prolog. Die vereinfachte Arbeitsweise dieser logischen Programmiersprache: Probiere unter Einhaltung der Regeln alle Möglichkeiten durch, bis eine passende gefunden wurde2. Ein solcher „brute-force“-Ansatz wurde damals auch als intelligent angesehen. Ganz konkret war Deep Blue, der der erste Computer, der gegen einen amtierenden Schachweltmeister gewann, ebenfalls ein Expertensystem, das für Schach im Grunde genommen einen Teil der möglichen Züge einfach durch simulieren vorherberechnete – also reine Rechengewalt statt “echter Intelligenz“3. Dennoch zeigt sich hier ein häufiges Merkmal eines KI-Systems: Manchmal wissen wir gar nicht, wie das System zu seiner Lösung gekommen ist. Wir wissen nur, dass es bei dieser Eingabe eine (eventuell nichtdeterministische) Ausgabe getätigt hat.

Wo wird KI schon angewendet? Wo siehst Du zukünftige Anwendungen?

Wir kommen sehr oft in unserem Alltag mit KI in Berührung, ohne es zu merken. Dazu im Folgenden einige Beispiele:

  • Sprachassistenten (z.B. Siri, Alexa, Google Assistant, etc.);
  • autonome Fahrzeuge (z.B. Tesla, automatischer Einparkassistent);
  • automatische Gesichtserkennung oder andere biometrische Sensoren (Entsperren des Smartphones mit Gesicht oder Fingerabdruck);
  • die tägliche Wetterprognose;
  • viele Werbeangebote oder Empfehlungen im Internet (personalisierte Werbung);
  • Apps zur Textübersetzung;
  • die Handschrifterkennung der Post beim Lesen der Adresse auf Briefen (der erste automatische Anschriftenleser in Deutschland wurde bereits 1978 eingesetzt!).

Neben diesen Beispielen wird KI aber in vielen weiteren Bereichen genutzt. Besonders innerhalb der letzten Jahre entstanden neue Systeme in den Bereichen Grafik wie die Bild-KI Dall-E bzw. Stable Diffusion, die anhand einer Kurzbeschreibung Bilder erzeugen können, oder Googles MusicLM im Bereich Musik4. Auch in der Medizin wird KI schon zur Diagnose von Krankheiten, beispielsweise in der Auswertung von Röngtenbildern5, oder zur Findung neuer Medikamente und Impfstoffe6 eingesetzt. Es gibt einen regelrechten Boom in diesem Themenfeld, auch für Unternehmen zur automatisierten Auswertung und Filterung gigantischer Datenmengen oder zur Prognose von Prozessen.

Neben der Verstärkung der genannten Anwendungsgebiete sehe ich für die Zukunft aber auch eine Bewegung in Richtung persönliche KI-Assistenten. Die Verbrauchergeräte werden immer leistungsstärker und enthalten zunehmend Hardware zur Ausführung der KI-Programme. Es ist denkbar, dass einige der stupiden Aufgaben, die wir mit unseren Geräten erledigen, noch einfacher werden. Hier zeigte z.B. Google 2018 bereits, dass die KI-Assistenz mithilfe eines einfachen Sprachbefehls ohne weiteres Zutun einen Friseurtermin per Anruf mit künstlicher Stimme in flüssiger Sprache vereinbaren konnte7.

Hast Du selbst mit KI schon Erfahrungen gemacht?

Neben den bereits genannten Beispielen und entsprechenden Kursen im Studium haben sich auch in meinem Umfeld als Software-Entwickler einige Innovationen eingestellt. Die Quellcodeverwaltungs-Plattform GitHub stellte 2021 den Dienst Copilot vor. Diese Erweiterung für den Texteditor erlaubt eine „intelligente“ Vervollständigung des gerade zu schreibenden Quellcodes á la schreibe mir ein Programm, das XY tut‘8. Meine Erfahrungen damit sind, dass der automatisch erstellte Code für einfache Probleme durchaus brauchbar ist, aber es je mehr Fehler gibt, desto komplexer die zu lösenden Probleme sind. Dabei ist meiner Meinung nach unvorteilhaft, dass die KI oft mit großer Überzeugung Ausgaben präsentiert, die am Ende nicht funktionieren oder so nicht möglich sind. Für stupide oder sehr simple Aufgaben, die sich weitestgehend an der Grundstruktur des Codes orientieren, funktioniert das Tool recht gut, nicht aber für spezielle Algorithmen. Weiter sehe ich kritisch, dass die zugrundeliegenden Textmodelle zur Autovervollständigung auf Code anderer Menschen basiert, der öffentlich und kostenlos zugänglich ist. Da ist per se kein Problem, doch kopiert die KI dabei teilweise passenden Code, ohne entsprechende Lizenzverweise mit zu kopieren – ein Urheberrechtsverstoß!

Auch mit anderen Textmodellen wie ChatGPT des US-amerikanischen Unternehmens OpenAI bin ich in Berührung gekommen. Auch hier ein ähnliches Fazit: Die Ausgaben sind oft sehr überzeugend und sehr falsch – noch (!). Fragt man das System z.B. „Erzähle mir einen Witz mit 14 Worten.“, so antwortet es (Stand September 2023): „Warum haben Geister so schlechte Lügen? Weil man durch sie hindurchsehen kann!“ Wer mitgezählt hat, wird bemerkt haben, dass es sich um 12 Worte handelt. Diese sog. Large Language Models (LLMs), wie auch ChatGPT eines ist, haben daher aktuell noch einige Probleme.

Welche Länder oder Unternehmen sind bei KI ganz vorn dabei?

Primär sind das die Üblichen Software-Riesen und Cloud-Anbieter: Microsoft, Amazon, Google, IBM, Alibaba und Baidu AI Cloud. Natürlich sind auch die entsprechenden Hardware-Hersteller wie Nvidia beteiligt, aber auch vergleichsweise junge Unternehmen wie OpenAI. Aufgrund des Booms ist die Anzahl neuer kleinerer Startups sehr hoch. Meiner Einschätzung nach sind daher die USA sowie China führend im Bereich der KI. Im Grunde ist das wie sonst auch ein Zusammenspiel zwischen den Hardware-Herstellern, die ihre Produkte für KI optimieren, und den Software-Unternehmen, die diese Fähigkeiten in ihren Produkten nutzen.

Viele Menschen befürchten, dass sie durch den Einsatz der KI ihren Job verlieren. Die Ersetzung konkreter menschlicher Arbeit durch Maschinen findet seit über 250 Jahren statt. Bisher ist dadurch das Heer der Arbeitslosen aber nicht größer geworden. Was denkst Du?

Meine Einschätzung ist, dass sich durchaus einige Berufe „wegautomatisieren“ lassen, zumindest zum großen Teil. Der Mensch könnte dabei immer mehr zur Kontrollinstanz werden, da die Maschine nicht immer fehlerfrei arbeitet bzw. arbeiten kann. Nehmen wir hier das Beispiel eines Übersetzers: Ein Dokument zu übersetzen besteht im Wesentlichen aus der Erkennung der Zeichen sowie dem eigentlichen und den Sinn erhaltendem Transfer in eine andere Sprache. Beides sind größtenteils bereits durch KI gelöste Probleme mithilfe von Bilderkennung und Sprachmodellen. An diesem Beispiel lässt sich sehen, dass die KI sehr wohl das Potential hat, einige Berufe überflüssig zu machen9. Aktuell gibt es beispielsweise auch Forschung im Bereich der theoretischen Informatik durch die Forschungsgruppe um Googles DeepMind, die sich auf die Findung neuer Algorithmen konzentriert. So konnte die KI neue Sortieralgorithmen finden, die im Vergleich zu bestehenden Algorithmen schneller sind10. Darin spiegeln sich die vielseitigen Anwendungsgebiete der KI wider.
Die Forschung hat zu dem Thema verschiedene Meinungen. Eine Studie von Goldman&Sachs11 erklärt beispielsweise, dass zwei Drittel der Jobs in den USA und Europa teilweise und weltweit etwa 300 Mill. Vollzeitstellen automatisiert werden können.

Daher sehe ich ein hohes Potential zur Disruption, aber nicht unbedingt im negativen Sinne. Die KI kann aktuell da ansetzen, wo repetitive Handlungen mit (mehr oder minder einfachen) Entscheidungen verknüpft werden. Eine Chance, den jahrelang postulierten Fachkräftemangel in Deutschland zu bekämpfen? Durchaus denkbar, doch sind durch KI nicht nur Berufe mit repetitivem Charakter betroffen, sondern auch diejenigen, die ein hohes Maß an Kreativität benötigen und Forschungscharakter haben, auch jene mit erforderlichem Hochschulabschluss. Diese könnten dann effizienter durch die maschinelle Unterstützung arbeiten. Vielleicht ist das vergleichbar mit Schriftsetzern, die mit der Einführung des computerisierten Layouts und Drucks zwar überflüssig geworden sind, die Journalisten allerdings viel schneller und effizienter ihre Informationen zu Papier bringen können und neue Berufe beispielsweise im Mediendesign entstanden. Zudem existieren – zumindest in Deutschland – auch Gesetze zur Kündigung in Unternehmen, die relativ „Arbeitnehmer“-freundlich sind. Es kommt dann darauf an, ob und wie sich die Gewerkschaften für die Einhaltung bzw. die Modifizierung solcher Regelungen engagieren.

Natürlich muss sich Geschichte nicht wiederholen, denn das Wachstum der KI-Anwendungsgebiete ist meiner Meinung nach zurzeit schwierig abzusehen. Was ich bisher noch nicht stark wahrgenommen habe, sind Anwendungen rund um Berufe, die viel menschliche Interaktion verlangen. Eine Pflegekraft im Altersheim ist, so denke ich, eher schwierig durch eine KI zu ersetzen. Zwar gibt es u.a. in Japan Versuche mit humanoiden Robotern in der Altenpflege12, allerdings wurden die Systeme auch durch die Pflegekräfte oft nicht richtig angenommen. Es bleibt bis dato eine menschliche Interaktion, die nicht einfach durch eine Maschine zu ersetzen ist. Ähnliches gilt auch z.B. fürs Handwerk.

Wie große ist die Gefahr, dass wir durch KI besser überwacht, manipuliert und damit fremdgesteuert bzw. von Staat und Kapital besser beherrschbar werden?

Diese Gefahr existiert tatsächlich, zumindest wenn es um Überwachung geht. Hier erinnere ich mich an einen Fall aus China, in der eine Person mehrere hundert Strafzettel an einem Tag erhielt, da sie bei Rot den Fußgängerweg überquert haben soll und durch das dort eingesetzte Gesichtserkennungssystem identifiziert wurde. Es stellte sich heraus, dass ihr Gesicht als Werbefigur auf den dortigen Bussen abgedruckt war und das System diese Werbung fälschlicherweise als diese Person erkannte. Das war 201813. Ich sehe die Gefahr, dass solche Systeme weitgehend eingesetzt werden könnten, ohne sich Gedanken über die Folgen zu machen oder ohne Gegenmaßnahmen zu haben im Falle einer falschen Entscheidung durch die Maschine. Hierbei muss auch beachtet werden, dass die Modelle oft ein Bias besitzen, je nachdem mit welchen Daten die Modelle trainiert wurden14. Ein doch eher dystopisch wirkendes Szenario ist die Verbindung vieler solcher Datenquellen, die die Konditionen bestimmter Dienste für einen Menschen beeinflussen. Wird die Überwachungskamera erkennen, wenn man häufig in der Nähe von Fast-Food-Ketten gesehen wird und ein anderes System anschließend die Kosten für die gesetzliche Krankenversicherung erhöht?
In einem Überwachungsstaat wie China mit dem dort genutzten Sozialscore ist das durchaus möglich. An dieser Stelle möchte ich allerdings anmerken, dass wir bereits durch viele andere Einrichtungen theoretisch überwacht werden können. Man denke dabei nur an die Kartenzahlung – auch hier könnte der Zahlungsanbieter jeden unserer Schritte verfolgen. Auch das Smartphone ist oft immer und überall dabei. Die Frage ist hier viel mehr, wie die Gesetzgebung über maschinell getroffene Entscheidungen richten wird. Welche Fehlerrate ist akzeptabel? Welche Möglichkeiten eines Einspruchs gibt es? Wie ist die Transparenz der Systeme?15

Eine andere Art der KI, die vielleicht weniger kritisch aber dafür längst im Einsatz ist, ist die automatische Analyse bestimmter Online-Verhaltensmuster für Werbezwecke. So werden persönliche Präferenzen erkannt und entsprechende Anzeigen geschaltet. Das zeigt, dass die Unternehmen, die KI-Systeme betreiben und die Nutzungsdaten besitzen, eine große Macht ausüben können und eine entsprechende Regulierung nötig ist.

Es gibt daher bereits Debatten im EU-Parlament. Mit dem AI Act, der am 14.6.23 beschlossen wurde, möchte die EU den Einsatz von KI regulieren und schließt damit die Nutzung für eine biometrische Massenüberwachung aus16. Es geht auch um Regelungen zur Transparenz und zu Betroffenenrechten. Je mehr Risiko mit einer Anwendung verbunden ist, desto stärker wird die Nutzung durch den AI Act reguliert. Damit ist die EU zumindest aus bürgerrechtlicher Sicht nicht so weit hinterher. Die Hoffnung ist, dass diese Vorgabe, ähnlich wie die Datenschutz-Grundverordnung 2018, ein globaler Standard werden kann.

Könnte die KI dazu führen, dass sich künftig die Technik selbst entwickelt und uns über den Kopf wächst, wie es in der SF-Literatur mitunter beschrieben wird?

Den Eintritt der „technologischen Singularität“, also dass KI-Systeme die menschliche Intelligenz übertreffen und sich dann stetig und irreversibel selbst weiterentwickeln, und deren schwer absehbare Folgen werden in vielen Science-Fiction-Szenarien beschrieben. Es wird vorausgesagt, dass diese Systeme dann nicht mehr zu kontrollieren oder zu stoppen seien und nicht selten endet der Abschaltversuch der Systeme durch die Menschheit in Chaos, weil die KI dies als Bedrohung für sich selbst ansieht und daraufhin die Menschheit zerstört. Dafür wären allerdings einige Voraussetzungen nötig: Das System müsste ohne Einschränkung mit vielen weiteren Systemen interagieren können, um weitreichende Effekte zu erzielen. Die Übernahme des Stromnetzes sei hier als Beispiel angeführt. Da diese alle eigenständige Systeme mit eigenen Sicherheitsvorkehrungen sind, müsste besagtes KI-System hervorragende Fähigkeiten im Auffinden von Sicherheitsschwachstellen haben, quasi selbst zum Hacker werden und weiterhin auch die Selbsterhaltung der Maschinen sicherstellen (Reparatur, neue Rechenkraft herstellen etc.). Das erscheint aus meiner Sicht mit Spezialisierung auf Cybersecurity eher unwahrscheinlich, dass ein autonomes System einen solchen Grad an Vernetzung erreicht, ein Untergangsszenario halte ich für ausgeschlossen.

Zur Weiterentwicklung ist außerdem eine Art innerer Antrieb notwendig. Sollte dafür eine simulierte Struktur unserer Denkweise bzw. des menschlichen Gehirns notwendig sein, so reicht die Rechenleistung Stand heute bei weitem nicht aus, auch nur ein menschliches Gehirn zu simulieren. Letztlich sind es nur Programme, die für bestimmte Interessen eingesetzt werden. Die falschen Interessen jedoch können sehr wohl gefährlich sein, wenn die Werkzeuge für einen destruktiven Zweck verwendet werden, z.B. zur Erforschung von Waffen, die entweder durch KI entwickelt oder unterstützt werden. Insbesondere wenn die hauptsächliche Marktmacht wie bereits beschrieben in den Händen weniger großer Hersteller oder Länder liegt, liegt nahe, dass die Bestrebungen nicht unbedingt das öffentlichen Interesse unterstützen, sondern profit- und expansionsgetrieben sind. Ähnlich sieht das auch Meredith Whittaker, Forscherin mit Fokus auf die ethischen Fragen der KI und zur Zeit Präsidentin der gemeinnützigen Signal-Stiftung (eines Messengers, der sich auf die Erhaltung der Privatsphäre konzentriert): „Künstliche Intelligenz, das ist in meinen Augen ein Marketingbegriff, eher als ein technischer. Je mehr man sich ihr zuwendet, desto mehr rechtfertigt und verschlimmert das die Konzentration von Macht und die soziale Kontrolle in den Händen weniger Unternehmen […]“17.

  1. https://web.archive.org/web/20080930164306/http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html ↩︎
  2. vgl. D. Merritt, 1989, Building Expert Systems in Prolog ↩︎
  3. vgl. M. Heßler, 2017, „Der Erfolg der ‚Dummheit‘“ ↩︎
  4. Spannend ist hier auch der Aspekt des Urheberrechts von KI-erzeugten Werken, der seit Jahren diskutiert wird. Dies führt hier aber zu weit. ↩︎
  5. vgl. Kumar et al., 2022, „Artificial intelligence in disease diagnosis: a systematic literature review, synthesizing framework and future research agenda“ ↩︎
  6. vgl. Rawal et al., 2021, „Identification of vaccine targets in pathogens and design
    of a vaccine using computational approaches“ ↩︎
  7. https://youtu.be/ogfYd705cRs&t=2100 ↩︎
  8. https://github.com/features/copilot ↩︎
  9. Es streikten bereits Drehbuchautor*innen in Hollywood: https://www.nytimes.com/2023/05/10/arts/television/writers-strike-artificial-intelligence.html ↩︎
  10. https://www.golem.de/news/google-deepmind-ki-findet-abkuerzungen-fuer-schnellere-algorithmen-2306-174781.html ↩︎
  11. https://www.ansa.it/documents/1680080409454_ert.pdf ↩︎
  12. Hier ein Bericht der IGES Gruppe für das Bundesministerium für Wirtschaft und Energie https://www.bmwk.de/Redaktion/DE/Publikationen/Studien/einsatz-von-robotischen-systemen-pflege-japan.pdf%3F__blob%3DpublicationFile%26v%3D4 ↩︎
  13. https://www.faz.net/aktuell/gesellschaft/menschen/gesichtserkennung-in-china-verwechselt-bus-mit-fussgaenger-15905254.html ↩︎
  14. Ein Beispiel hierfür ist eine Bilderzeugungs-KI, die auf die Anfrage „Generiere das Bild eines Menschen“ per se Bilder von Menschen heller Hautfarbe generiert, aber nur mit sehr geringer Wahrscheinlichkeit die Bilder Menschen dunklerer Hautfarbe. ↩︎
  15. Wird die in Europa geltende Datenschutz-Grundverordnung beibehalten müssten die Betreiber dieser Systeme die über eine Person gespeicherten Daten offenlegen. ↩︎
  16. https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence ↩︎
  17. Aus einem Interview mit der ZEIT: https://www.zeit.de/digital/datenschutz/2023-06/meredith-whittaker-signal-kuenstliche-intelligenz-republica-interview/komplettansicht ↩︎

Ein Gedanke zu „Künstliche Intelligenz: Fluch oder Segen?“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert