Künstliche Intelligenz als Mythos und FetischThomas MeyerFortschritt und Entwicklung gehören seit jeher zu den zentralen Glaubensartikeln des Kapitalismus. Unübersehbar sind die (oft zweifelhaften) Erfolge der technischen Umgestaltung und Indienstnahme der Natur und des Menschen. Nun können solche Entwicklungen auch fatale psychosoziale und ökologische Konsequenzen haben. Keineswegs kann davon die Rede sein, dass technischer Fortschritt per se eine gute Idee sei oder tatsächlich zu mehr Wohlstand führe, wie das immer gern behauptet wird. Technische Entwicklungen oder vielmehr technische Entwicklungsparadigmen stehen im Kontext der Verwertungsbewegung des Kapitals. Sofern eine neue Technologie einen Kostenvorteil verspricht oder neue Möglichkeiten der Akkumulation eröffnet in Form von Prozessinnovation in der Produktion oder in Form von einem (erweiterten) Massenkonsum von Waren, wird diese entwickelt und produziert, wobei zugleich ihre Notwendigkeit und Unvermeidbarkeit behauptet wird (wobei es auch billiger sein kann, die Arbeiter/-innen zu verschleißen als sie durch Technik wegzurationalisieren. Keineswegs wird überall automatisiert, wo man es theoretisch könnte, und praktisch ist eine Automatisierung auch nicht immer umsetzbar, vgl. Becker 2017 und Moody 2019). Die kapitalistische Fortschritts- und Entwicklungsideologie wartet stets mit einem gewissen Optimismus auf und mit zahlreichen Glücksversprechen. Und umgekehrt mit einem Pessimismus bezüglich des Gewohnten und der impliziten oder expliziten Drohung, man habe den Fortschritt als Schicksal anzunehmen und sei dazu angetrieben, in ›Selbstbestimmung‹ sich anzupassen und neu zu erfinden. Andernfalls gehört man halt zu den ›Verlierern‹, wozu sich zweifellos auch wieder biologistische Rationalisierungen finden lassen, die eine genetische oder neurologische ›Erklärung‹ liefern für Armut und Konservatismus usw. Nicht zufällig gehen diese Versprechungen von einen ideologischen oder vollkommen übertriebenen Anspruch aus, der oftmals nicht haltbar ist und auf nicht weiter thematisierten Voraussetzungen und vulgärmaterialistischen oder utilitaristischen Anthropologien basiert (vgl. Schnetker 2019). Zugleich ist die technologische Entwicklung mit ihren teils irrsinnigen Versprechen verbunden mit der entsprechenden legitimatorischen Begleitmusik. So wird immer wieder betont, wie unaufhaltsam die technologische Entwicklung und wie wünschenswert und unumgehbar sie sei, welche Chancen, allerdings auch Risiken sie berge. Wenn davon die Rede ist, ›die Entwicklung lässt sich nicht mehr aufhalten‹, dann erscheint diese Entwicklung den Optimisten/Apokalyptikern und auch den ›Realisten‹ als unaufhaltsam, da die dieser Entwicklung zugrunde liegende gesellschaftliche Dynamik als solche nicht durchleuchtet und in Frage gestellt wird. Man hat es hier nicht mit einer sich durchsetzenden Naturgesetzlichkeit zu tun (wie bei einem bevorstehenden Vulkanausbruch, den man in der Tat nicht aufhalten könnte), sondern die fetischistische Verwertungsbewegung des Kapitals erscheint den ihnen unterworfenen Subjekten als eine solche, obwohl sie es nicht ist (vgl. Kurz 2012). Egal worum es geht: ›Fortschritt‹ ist die Lösung, was oft nichts anderes heißt als zu digitalisieren und Kosten einzusparen. Der Digitalisierungskritiker Evgeny Morozov nannte dieses Denken, überall nur Nägel zu sehen und für jedes Problem stets nur einen Hammer parat zu haben, als »Solutionismus« (Morozov 2013). Besonders eifrige Jünger des Solutionismus sind Ideologen des Silicon Valley und insbesondere Vertreter der transhumanistischen Ideologie, die nicht mal davor zurückschrecken, selbst die Wegrationalisierung des Menschen als solchen in den Blick zu nehmen und es sogar als wünschenswert anzusetzen, dass der Mensch entweder verschwindet oder sich in einen ›Cyborg‹ verwandelt (vgl. Wagner 2016). Der Transhumanismus ist somit ein technokratischer Todeskult (vgl. Konicz 2018 sowie Meyer 2020), der den Sozialdarwinismus und die Eugenik aktualisiert (vgl. Jansen 2018). Diese Legitimationsideologien und ihre ›Propheten‹ weisen in der Tat Aspekte auf, die man für gewöhnlich bei religiösen Fundamentalisten findet. Nicht umsonst hat sich der Begriff ›Technik-Evangelist‹ ergeben. KI-Ideologen glauben, dass die Menschen aufgrund ihrer Fehlbarkeit einer vom Menschen geschaffenen künstlichen Intelligenz bedürfen, um etwa mit dem Klimawandel fertig zu werden. Die Transhumanisten streben nach einer Erlösung durch Technik, was aber Vernichtung des Menschen mit einschließen kann. Neben Big Data und Digitalisierung (Meyer 2018) ist ein nahezu allgegenwärtiger Hype im gegenwärtigen kapitalistischen Regime (zu dem der »Sozialismus chinesischer Prägung« selbstverständlich dazugehört) die sog. Künstliche Intelligenz (vgl. z. B. Simanowski 2020). Spätestens seit der Veröffentlichung von ChatGPT Ende 2022 ist künstliche Intelligenz in aller Munde. Was ist nun von dem Hype um künstliche Intelligenz zu halten? Es werden massive Disruptionen in der Ökonomie prognostiziert (Industrie 4.0, Internet der Dinge), die KI werde den Menschen überflügeln und ersetzen. Der Mensch sei mehr oder weniger ein Auslaufmodell. KI kann und wird eingesetzt (werden) in der Bildung, in der Medizin, in der Logistik, in der Kulturindustrie, im Journalismus, im Militär, in der Kunst usw., überall. Es wird in Aussicht gestellt, dass zahlreiche Arbeitsplätze oder Arbeiten überhaupt wegfallen werden, wobei wieder einmal die sozialen Konsequenzen verharmlost werden. Man betäubt sich eher mit Ignoranz oder mit Optimismus, es würden schon zahlreiche neue Jobmöglichkeiten entstehen, wobei da immer eine latente Drohung mitschwingt gegen diejenigen, die bei der ›Reise nach Jerusalem‹ auf der Strecke bleiben und sich nicht als flexibel oder resilient genug erweisen. Die KI bringt jedoch kein High-Tech-Paradies hervor, wie die fundamentalistischen KI-Prediger glauben machen wollen, sondern überwiegend prekäre Arbeit. KI als »Kapitalistische Intelligenz« (vgl. wildcat Nr. 112, 42ff. sowie Seppmann 2017) dient zu Rationalisierungsmaßnahmen des Kapitals, also Reduktion der Kosten, schnellere Logistik, zeitliche Verdichtung der Arbeit, zu Beschleunigung und Aufrechterhaltung des Verwertungsprozesses, zur Fortsetzung der Konkurrenz auf allen Ebenen. Wie bereits laufende oder ›anstehende‹ Entwicklungen zeigen, eignen sich KI-Systeme hervorragend dazu, die Krise zu managen (vgl. Konicz 2024). Sie sind dazu prädestiniert, durch Auswertung gewaltiger Datenmengen (Big Data) das kapitalistische ›Menschenmaterial‹ zu knechten und nach seiner Verwertbarkeit oder ›Zukunftsfähigkeit‹ zu beurteilen und zu selektieren (Strafverfolgung, Versicherungen, Gesundheit, Überwachung usw.). Erstellen KI-Systeme Prognosen, dann immer auf der Basis einer statistischen Auswertung ›dessen, was bereits ist‹. Dabei kommt es zu fatalen positiven Rückkopplungsschleifen: So bekommt jemand keinen Job oder keinen Kredit, weil er aus einem ›sozialen Brennpunkt‹ kommt oder mutmaßlich aus einem ›kriminellen Milieu‹, was die entsprechende ›Polizeiarbeit‹ beweist, die wiederum mobilisiert wird, besagte Milieus zu durchleuchten, da dort Verbrechen auch in Zukunft wahrscheinlich seien, wie die Polizeiarbeit in der Vergangenheit bereits gezeigt hat und aufgrund von KI und Algorithmen wieder zeigen wird (suchet und findet!). Und somit wird ›bestätigt‹, dass das kriminelle Milieu ein kriminelles Milieu ist und dass Schwarze oder Ausländer eher zu Verbrechen ›neigen‹ als jene, die weniger ins Fadenkreuz der Polizei und der Justiz geraten sind (vgl. O’Neil 2016). Somit wird eine rassistische Realität algorithmisch perpetuiert. Gerät man aufgrund einer Fehlbeurteilung in die ›Fangarme‹ eines KI-Systems bzw. eines Algorithmus, ist ›Einspruch‹ normalerweise nicht möglich (und die Anwender eines KI-Systems wissen selbst nicht, warum eine KI sich im konkreten Fall so und nicht anders ›entschieden‹ hat – selbst wenn das ›Betriebsgeheimnis‹ abgeschafft werden würde, bliebe die ›Entscheidungsfindung‹ der KI opak). Dass KI-Systeme Fehler machen (d. h. Fehler aus der Sicht der Anwender und Betroffenen), hat grundsätzlich damit zu tun, dass die Wirklichkeit sich nicht eindeutig sortieren lässt und dass KI-Systeme (den sozialen und situativen) Kontext nicht verstehen können (weswegen Sprachprogramme Probleme mit Sarkasmus und Ironie haben). Statistische Auswertungen der Häufigkeit von Wörtern oder Wortkombinationen ergeben keine Bedeutung. Statistische Auswertungen von Daten führen nicht zu einem Verständnis der Genese eben dieser Daten (bzw. jener gesellschaftlichen Phänomene, die sich in den Daten dann niederschlagen). Das Fatale ist, dass man nicht wissen kann, bei was und wann KI-Systeme Fehler machen (werden) und wie genau diese Fehler zustande kommen. Die Fehler, die KI’s, wie Sprach- und Bilderkennungsprogramme, machen, zeigen, dass sie das ›Gelernte‹ nicht verstehen (vgl. Lenzen 2023, 48ff., 133ff.). Liefern KI-Systeme unsinnige Ergebnisse, ist es sehr schwierig, sie durch erneutes Training zu ›reparieren‹ (im Unterschied zu ›normalen‹ Computerprogrammen, die man reparieren kann durch das Auffinden der Fehler im Programmcode). Künstliche Intelligenz und allgemein das ›Computerdenken‹ haben eine längere Vorgeschichte und die KI hat auch schon mehrere Hypes hinter sich (vgl. Weizenbaum 1982, Dreyfus 1985, Irrgang; Klawitter 1990, Larson 2021). Dass ein solcher Hype auf ›höherer Stufenleiter‹ wiederkehrt, trotz aller Kritik, hat offenbar mit ihrer kapitalistischen ›Nützlichkeit‹ und mit den stets damit verbundenen optimistischen Verheißungen sowie apokalyptischen Befürchtungen zu tun, die technologische Entwicklungen oft begleiten und immer wieder aufgewärmt werden. Sie mögen zwar wiederholt enttäuscht oder widerlegt worden sein, sie sind dennoch nicht tot zu kriegen. Dass die KI-Forschung und das Interesse, sie zu finanzieren, mehrfach einen ›Winter‹ hinter sich haben, liegt an einer Unterschätzung der Komplexität, eine künstliche Intelligenz entwickeln zu können, und an der lange Zeit noch unzureichend entwickelten Computertechnik (und der unzureichenden Masse an digitalisierten Daten, um ›künstliche neuronale Netze‹ trainieren zu können). Ungeachtet repressiver Anwendungen und der kapitalistischen Indienstnahme von KI-Systemen werden treffende Einwände gegen den in der ›KI-Szene‹ üblicherweise verwendeten Intelligenzbegriff formuliert. In der Medienwelt wurde gern ›sensationslüstern‹ berichtet, wenn eine KI besser als jeder Mensch Schach oder Go spielen kann, was von manchen dahingehend gedeutet wurde, dass der Mensch bald ein ›Auslaufmodell‹ werde. Die künstliche Intelligenz ist der menschlichen Intelligenz in der Tat weit überlegen, wenn es darum geht, gigantische Datenmengen aufzuspeichern und statistisch (mit bestimmten Gewichtungen und Modellannahmen) auszuwerten. Begriffsbildung und Urteilsvermögen sind aber etwas anderes als das Auswendiglernen eines Telefonbuches oder aller Versicherungsdaten. Zweifellos können KI-Systeme aus riesigen Datenmengen Muster erkennen, die man sonst übersehen hätte, wobei ein Mensch zu Lebzeiten die Datenmengen nie hätte bewältigen können, da die Datenmengen einfach zu groß sind, weswegen KI-Systeme richtigerweise eher als Mustererkennungsprogramme bezeichnet werden sollten. Dabei ist anzumerken, dass Korrelationen, also Muster, die festgestellt werden, noch lange nicht Kausalitäten nachweisen, was für Statistik im Allgemeinen gilt, was jene, die meinen, durch mehr und mehr Daten werde das Wissen vermehrt (so dass man folglich auf Theorie verzichten könnte), anscheinend nicht bedenken! In der Tat können solche Programme sinnvoll als wissenschaftliches Werkzeug (und eben nicht als Ersatz für theoretisches Denken) eingesetzt werden (etwa in der Astrophysik, Medizin, Molekularbiologie, Festkörperphysik u. a., vgl. Bischoff 2022, 109ff.) und eignen sich nicht alleine zur Repression oder Selektion von Menschen. Dass ein Computerprogramm einen Schachweltmeister besiegt, hat wesentlich damit zu tun, dass dieses Programm Milliarden Zugkombinationen auswendig gelernt hat (und die jeweils vorteilhaftesten nächsten Züge anhand einer einprogrammierten Heuristik abschätzen kann, also nicht alle auswendig lernen muss). Was für gewöhnlich nicht erwähnt wird, ist, dass diese Programme Hyperspezialisten sind. Ein Schachprogramm (im Sinne eines ›künstlichen neuronalen Netzes‹) kann nicht auch Go spielen lernen. Ein Mensch kann beides lernen, ohne dass er etwas früher Gelerntes zugleich verlernt (vgl. Larson 2021, 28ff.). Das ist auch der Grund dafür, warum einige mittlerweile, wenn von KI die Rede ist, solche Hyperspezialisten nicht meinen (schwache KI), sondern der Begriff ›künstliche Intelligenz‹ soll reserviert bleiben für eine künstliche allgemeine Intelligenz (Artificial General Intelligence), also für eine, die potentiell ›alles‹ kann und schlussendlich Bewusstsein (was auch immer das genau ist) zu entwickeln vermag (was man auch starke KI nennt), die aber reine Fiktion ist (und vermutlich auch bleibt) und außerhalb der Welt der Science-Fiction und der Wahnwelt der Transhumanisten (Schnetker 2019) bzw. der »millenarische[n] Erlösungsrhetorik« der Silicon-Valley-Ideologen nicht existiert (Nida-Rümelin; Wiedenfeld 2023, 252). Nicht zu vergessen ist dabei, dass ›künstliche Intelligenz‹ auch ein Marketingwort ist; so wird damit Verschiedenes bezeichnet, was oft mit KI nichts zu tun hat, sondern mehr mit banalen Statistikprogrammen oder Datenbanken. Daher trifft man auch nicht auf allzu viel tiefgreifende theoretische Reflexion, wenn im Blätterwald dieser Begriff gang und gäbe ist (Ausnahmen gibt es immer). Erst recht gilt dies für die Propaganda der Tech-Giganten (beispielsweise soll der von Google entwickelte Chatbot LaMDA angeblich Empfindungsvermögen und ein Bewusstsein entwickelt haben). Ein zentraler Einwand gegen das ›Computerdenken‹ bzw. gegen die künstliche Intelligenz ist die Gleichsetzung von Intelligenz mit Rechnen bzw. mit regelbasierten Handlungsanweisungen. Der Computerwissenschaftler Erik J. Larson stellt heraus, dass Computerprogramme (egal wie man sie sonst noch nennt) grundsätzlich nur deduktiv (symbolische KI) oder induktiv (subsymbolische KI) vorgehen können (das Trainieren einer KI mit Daten ist nichts anderes als Induktion). Was aber für das menschliche Denken typisch ist, ist nach Charles Sanders Peirce (1839-1914), auf den sich Larson beruft, die Abduktion, die induktive und deduktive Momente in sich vereinigt, ohne auf diese reduzierbar zu sein. Menschliches Denken kann weder auf Deduktion (Logik, d. h. das Ableiten eines Konkreten aus einem Allgemeinen) noch auf Induktion (das Aufsammeln von Fakten bzw. Daten und die daraus sich möglicherweise ergebende Verallgemeinerung) eingegrenzt werden. Abduktion ist vielmehr etwas, was man mit Hypothesenbildung umschreiben könnte. Hypothesenbildung impliziert, bestimmte Fakten oder Deutungen zunächst zu ignorieren, um sie in einem anderen Kontext, im Rahmen eines neuen ›Paradigmas‹, in einem neuen Licht erscheinen zu lassen. Larson illustriert dies an Kopernikus: »When Copernicus posited that the earth revolved around the sun and not vice versa, he ignored mountains of evidence and data accumulated over the centuries by astronomers working with the older, Ptolemaic model. He redrew everything with the sun at the center, and worked out a usuable heliocentric model. Importantly, the initial Copernican model was actually less predictive despite its being correct. It was initially only a framework that, if completed, could offer elegant explanations to repalce the increasingly convoluted ones, such as planetary retrograde motion, plaguing the Ptolemaic model. Only by first ignoring all the data or reconceptualizing it could Copernicus reject the geocentric model and infer a radical new structure to the solar system (And note that this raises the question: How would ›big data‹ have helped? The data was all fit to the wrong model.)« (Larson 2021, 104). Dem logischen Schließen und der Statistik bleiben die Denkfigur ›Unterschied zwischen Wesen und Erscheinung‹ fremd. Mit Induktion und Deduktion allein, ohne dass sie durch etwas Drittes vermittelt werden, lassen sich jedenfalls weder ›Neues‹ noch ›Kreativität‹ erklären. Künstliche Intelligenzen sind damit nichts weiter als »stochastische Papageien« (Emily M. Bender).1 Würde man eine KI nur mit Kreisen trainieren, würde sie nie plötzlich damit anfangen, Vierecke zu zeichnen. Künstliche Intelligenzen können grundsätzlich nur interpolieren, d. h. mit ihnen bekannten Werten, also mit ›dem was schon gewesen ist‹, operieren, und eben nicht extrapolieren (Otte 2023, 60ff.). Nur Letzteres würde etwas Neues hervorbringen, da das Neue bzw. Kreative sich nicht formalisieren lässt. Grundsätzlich können Computer und damit künstliche Intelligenzen, d. h. »KI-Geräte«, (Ralf Otte) nur solche Probleme lösen, die sich algorithmisieren (ein Algorithmus ist eine formalisierbare und in binäre Zahlen übertragbare Rechen- oder Handlungsvorschrift, die nach endlich vielen Schritten zu einem Ergebnis gelangt), d. h. sich in eine formale Sprache übertragen lassen. KI’s bewegen sich also grundsätzlich nur in einer Welt der Mathematik (und selbst die lässt sich nicht vollständig formalisieren und es gibt zudem mathematische Probleme, die keine Lösung haben, für die daher auch kein Algorithmus gefunden werden kann) und jene Aspekte der Realität, die sich nicht algorithmisieren lassen, bleiben der KI fremd. Hierin hat ein KI-Gerät seine prinzipiellen Grenzen, egal wie klug es erscheinen mag. Daher dürfte etwa autonomes Fahren eine Illusion sein, wie der KI-Experte Ralf Otte feststellt. Die einzige Möglichkeit, autonomes Fahren zu realisieren, bestände darin, die Umgebung zu mathematisieren, d. h. » die natürliche Umgebung […] in eine deterministische Umgebung [zu] transformier[en]«. Autonomes Fahren findet in einer natürlichen Umgebung statt, und es ist nicht möglich die Realität als solche in Algorithmen zu übertragen oder »die ganze Welt künstlich mit [IP-]Adressen oder Kameras anzureichern, selbst nicht bei einem massenhaften Einsatz einer 5G-Technologie, nur um sie für die Roboterautos vorhersehbarer zu machen« (ebd., 342). Ein weiterer Einwand gegen den Intelligenzbegriff des vorherrschenden KI-Diskurses ist nach der Philosophin Manuela Lenzen die Eingrenzung von Intelligenz auf menschliche Intelligenz (vgl. Lenzen 2023). Statt dass künstliche Intelligenz als eigene Qualität begriffen wird, vergleicht man allzu schnell diese mit menschlicher Intelligenz. Das führe zu unrealistischen Einschätzungen und zu einer Verkennung menschlicher Intelligenz. Man neige dazu, sich an Unsinn aufzuhängen, und blende aus, was KI’s tatsächlich können und nicht können. Lenzen argumentiert, dass man von künstlicher Intelligenz sprechen kann, ohne dabei den Menschen zu entwerten und ohne in Mythologie zu verfallen (die KI wird den Menschen bald in allem überflügeln und die Weltherrschaft übernehmen usw.). Intelligenz wäre vielmehr als ein allgemeineres Phänomen zu begreifen, das auch in der Natur vorkomme und keineswegs ein Monopol des Homo Sapiens (wobei der Homo Sapiens zu einer Abstraktionsfähigkeit fähig ist, welche die von ›nichtmenschlichen Tieren‹ weit in den Schatten stellt und somit in der Tat ein ›Unikat‹ in der Natur ist). Intelligenz sei die Eigenschaft eines Organismus, Teil einer Umwelt zu sein und in dieser ›ausgeklügelt‹ agieren, d. h. letztendlich überleben zu können; somit ist wie Lenzen ausführt, Intelligenz keineswegs nur etwas ›Geistiges‹, rein Kognitives, sondern ist an einen in einer Umwelt agierenden Körper gebunden. Das kann man als verkörperte Kognition/Intelligenz bezeichnen. Der Ansatz der Robotik besteht darin, durch Trial and Error (also weniger durch das Einspeisen von großen Datenmengen) einer physischen Maschine das Agieren in einer bestimmten Umgebung ›beizubringen‹. Ähnlich wie ein Kleinkind zu greifen oder zu laufen lernt (learning by doing), wird ein Roboter darauf trainiert, dies auch tun zu können. Selbstverständlich ist man hier unendlich weit davon entfernt, eine künstliche Intelligenz im Sinne einer allgemeinen künstlichen Intelligenz hervorbringen zu können. Man kann also sagen – und dies wurde wiederholt festgestellt (vgl. z. B. Weizenbaum 1982, 268ff. und Larson 2021) – dass der KI-Diskurs die Vorstellung von menschlicher Intelligenz auf ein allzu einfaches Bild reduziert. Nicht wenige KI-Theoretiker bewegten sich dabei in einer Tautologie: Man definiert Intelligenz als etwas Berechenbares (regelbasiertes Denken/Handeln), also etwas, das sich in einen Algorithmus übertragen lässt, und Computer können genau das. Und dann stellt man erstaunt fest, dass Computer Intelligenz aufweisen (oder zumindest intelligent wirken, so dass sie mit dem Menschen gleichziehen würden, wenn der Mensch nicht mehr unterscheiden könnte, ob ein Computer oder ein Mensch mit ihm redet oder schreibt; dies ist bekannt als Turing-Test), und bald mehr Rechenleistung haben als das menschliche Gehirn (womit unterstellt wird, dass das Gehirn im Wesentlichen ein Computer ist). Dass diese Reduktion für viele dann doch als plausibel und glaubhaft erscheint, dürfte mit der real stattfindenden Reduktion menschlicher Intelligenz auf die Imperative des kapitalistischen Verwertungsprozesses zu tun haben (vgl. Seppmann 2017). Die Panik, die KI werde uns ersetzen und versklaven, ist eben der Widerhall der Zumutung des Kapitalismus im Allgemeinen, sich stets bewähren und rationalisieren zu müssen, und der Drohung, damit auch scheitern zu können, was aber selten ausgesprochen wird. Die Vermenschlichung von Maschinen ergibt genau dann Sinn, wenn der Mensch tendenziell auf eine Maschine reduziert wird bzw. ›selbstbestimmt‹ sich zu einer solchen zu reduzieren weiß und folglich sich als nicht viel mehr als ein Algorithmen ausführender Apparat erfahren kann (zweifellos mit den entsprechenden psychischen Konsequenzen, kognitiven Dissonanzen und Verdrängungen). Emil Post, neben Alan Turing ein (weniger bekannter) Theoretiker des Computers, hat, um einen Computer und das, was er kann oder können soll, theoretisch zu begreifen, einen Fließbandarbeiter zum Vorbild genommen (vgl. Heintz 1993, 166ff.). Der Computer mache im Wesentlichen das, was der Mensch als Fließbandarbeit mache (oder machen solle!), also regelbasiert identische Handlungen ausführen. Es sei also ganz und gar nicht überraschend, dass eine Maschine Handlungen prinzipiell viel besser und effizienter ausführen könne, als ein auf ein maschinenhaftes Verhalten reduzierter Mensch es je könnte. Dass künstliche Intelligenz die menschliche überflügeln könne und die Menschheit nahezu unumgänglich versklaven werde, lasse vermuten, dass jene, die das propagieren und ernsthaft glauben, einen eher überschaubaren Horizont aufwiesen. Man denke hierbei exemplarisch an den ›Philosophieprofessor‹ Nick Bostrom, der in seinem Buch Superintelligenz über hunderte Seiten sich allerhand Schreckensszenarien zurechtzimmert und sich darüber sorgt, wie man diese möglicherweise verhindern könnte – selbstverständlich ohne an einer einzigen Stelle den Kapitalismus infrage zu stellen. Wenn also vom Menschen als ›Auslaufmodell‹ geredet wird, dann bedeutet dies, dass der Mensch, reduziert auf variables Kapital, in der Tat zunehmend ein Auslaufmodell ist und damit der Kapitalismus selbst (vgl. Konicz 2024a). Doch von einer Krise der kapitalistischen Gesellschaft, einer inneren Schranke der Kapitalverwertung wollen weder Optimisten noch Apokalyptiker etwas wissen (vgl. z. B. Ortlieb 2009 und Kurz 2012). Literatur Autorenkollektiv: wildcat Nr. 112, Herbst/2023. Becker, Matthias Martin: Automatisierung und Ausbeutung – Was wird aus der Arbeit im digitalen Kapitalismus?, Wien 2017. Bischoff, Manon (Hg.): Künstliche Intelligenz – Vom Schachspieler zur Superintelligenz?, Berlin 2022. Bostrom, Nick: Superintelligenz – Szenarien einer kommenden Revolution, Frankfurt 2018, zuerst Oxford 2014. Dreyfus, Hubert L.: Die Grenzen künstlicher Intelligenz – Was Computer nicht können, Königstein/Ts 1985, zuerst New York 1972. Heintz, Bettina: Die Herrschaft der Regel – Zur Grundlagengeschichte des Computers, Frankfurt 1993. Irrgang, Bernhard; Klawitter, Jörg (Hg.): Künstliche Intelligenz (Edition Universitas), Stuttgart 1990. Jansen, Markus: Radikale Paradiese – Die Moderne und der Traum von der perfekten Welt, Würzburg 2018. Konicz, Tomasz: KI und Kapital – In der vom Silicon Valley herbeigesehnten Singularität käme das automatische Subjekt zu sich selbst, 2018, auf exit-online.org. Konicz, Tomasz: KI und Krisenverwaltung, konicz.info vom 23.3.2024. Konicz, Tomasz: KI als der finale Automatisierungsschub, konicz.info vom 19.4.2024a. Kurz, Robert: Geld ohne Wert – Grundrisse zur einer Transformation der Kritik der Politischen Ökonomie, Berlin 2012. Larson, Erik J.: The Myth of Artificial Intelligence – Why Computers can’t think the Way we do, Cambridge MA 2021. Lenzen, Manuela: Der elektronische Spiegel – Menschliches Denken und künstliche Intelligenz, München 2023. Meyer, Thomas: Big Data und die smarte neue Welt als höchstes Stadium des Positivismus, in: exit! – Krise und Kritik der Warengesellschaft Nr. 15, Springe 2018, 110–156. Meyer, Thomas: Zwischen Selbstvernichtung und technokratischem Machbarkeitswahn – Transhumanismus als Rassenhygiene von heute, 2020, auf exit-online.org. Moody, Kim: Schnelle Technologie, langsames Wachstum – Roboter und die Zukunft der Arbeit: in: Butolo, Florian; Nuss, Sabine (Hg.): Marx und die Roboter – Vernetzte Produktion, Künstliche Intelligenz und lebendige Arbeit, Berlin 2019, 132–155. Morozov, Evgeny: Smarte neue Welt – Digitale Technik und die Freiheit des Menschen, München 2013. Nida-Rümelin, Julian; Weidenfeld, Nathalie: Was kann und was darf künstliche Intelligenz? – Ein Plädoyer für Digitalen Humanismus, München 2023. O’Neil, Cathy: Weapons of Math Destruction – How Big Data increases Inequality and threatens Democracy, New York 2016. Ortlieb, Claus Peter: Ein Widerspruch zwischen Stoff und Form – Zur Bedeutung der Produktion des relativen Mehrwerts für die finale Krisendynamik, in: exit! – Krise und Kritik der Warengesellschaft Nr. 6, Bad Honnef 2009, 23–54, auch of exit-online.org. Otte, Ralf: Künstliche Intelligenz für dummies, Weinheim 2023. Schnetker, Max Franz Johann: Transhumanistische Mythologie – Rechte Utopien einer technologischen Erlösung durch künstliche Intelligenz, Münster 2019. Seppmann, Werner: Kritik des Computers – Der Kapitalismus und die Digitalisierung des Sozialen, Kassel 2017. Simanowski, Roberto: Todesalgorithmus – Das Dilemma der künstlichen Intelligenz, Wien 2020. Wagner, Thomas: Robokratie – Google, das Silicon Valley und der Mensch als Auslaufmodell, Köln 2016. Weizenbaum, Joseph: Die Macht der Computer und die Ohnmacht der Vernunft, Frankfurt 1982, zuerst 1976.
|