Archiv der Kategorie: Kontrollverlust
Thicket of meanings
Large language models like ChatGPT can help us to better understand the connection between language and thought. This is an opportunity for a new enlightenment. /****A slightly abridged version of this text appeared in the German magazine “Human” 3/24. The issue can be ordered. [German Version]****/ Since its invention in the course of the Dartmouth Workshop of 1956, the term “artificial intelligence” has been the subject of a battle of interpretation that its users ultimately always lose. Artificial intelligence research is to intelligence what negative theology is to God. It constantly finds out what intelligence is not. We learned early on that mental arithmetic of all things is the simplest problem to solve digitally, that even sorting apparently doesn’t require much intelligence, that not even playing chess or Go is a definitive proof of intelligence, that cats can be distinguished from dogs or even driving a car apparently can be done without a great deal of intelligence. In the face of the current hype surrounding generative artificial intelligence – image generators like Midjourney or large language models (LLMs) like ChatGPT – the question arises again: is the astonishingly correct use of words and images by machines “intelligent”? One faction believes … Weiterlesen
Dickicht der Bedeutungen
Large Language Models wie ChatGPT können uns helfen, den Zusammenhang zwischen Sprache und Denken besser zu verstehen. Darin liegt die Chance für eine neue Aufklärung. /****** Eine leicht gekürzte Version dieses Textes erschien im Magazin „Human“ 3/24. Das Heft kann man hier bestellten. [English Version] ******/ Seit seiner Erfindung im Zuge des Dartmouth Workshop von 1956 rankt um den Begriff der „Künstliche Intelligenz“ ein Deutungskampf, der für seine Verwender letztendlich immer verloren geht. Künstliche Intelligenz-Forschung verhält sich zu Intelligenz, wie negative Theologie zu Gott. Sie findet ständig heraus, was Intelligenz nicht ist. Früh lernten wir, dass ausgerechnet Kopfrechnen das einfachste digital zu lösende Problem ist, dass auch Sortieren anscheinend nicht viel Intelligenz benötigt, dass nicht mal Schach- oder Go-Spielen ein endgültiger Ausweis von Intelligenz ist, dass auch Katzen von Hunden zu unterscheiden oder sogar Autofahren offenbar ohne besonders viel Intelligenz zu bewerkstelligen ist. Angesichts des aktuellen Hypes um generative Künstliche Intelligenz – Bildgeneratoren wie Midjourney oder Large Language Modells (LLMs) wie ChatGPT – ist die Frage wieder in aller Munde: ist die erstaunlich korrekte Verwendung von Wörtern und Bildern durch Maschinen „intelligent“? Die eine Fraktion glaubt, einen „funken genereller Intelligenz“ in den großen Frontier-Modellen wie GPT-4, Claude 3, Gemini 1.5 zu … Weiterlesen
xAi / Grok
Elon Musk hat nun die Veröffentlichung des Chatbots „Grok“ angekündigt und es scheint tatsächlich so schlimm zu werden, wie ich es mir dachte. In meiner Studie zu Large Language Models hatte ich in einem extra angehängten Epilog genau dieses Szenario antizipiert. Aus aktuellem Anlass veröffentliche ich diesen Abschnitt nochmal gesondert. Epilog Die öffentliche Debatte um Künstliche Intelligenz geht sehr häufig um spekulative Szenarien rund um AGI, Superintelligenzen und die Frage, ob diese uns nun retten oder ausrotten werden. Doch LLMs müssen nicht superintelligent sein – eigentlich müssen sie überhaupt nicht in einem menschlichen Sinne intelligent sein –, um einen enormen Einfluss auf alle Aspekte unserer Welt zu haben. Wenn eine Technologie so tief in unser kollektives Betriebssystem – die Sprache – implementiert wird, sind die Effekte vorhersehbar groß und unvorhersehbar vielfältig. Paul Virilio hat einmal gesagt, dass jede Technologie ihren eigenen Unfall produziert (Virilio/Lotringer 1983, S. 35 f.). Zwei Dinge sind dabei zu ergänzen: Ein Unfall ist nur dann ein Unfall, wenn er nicht vorhergesehen wurde. Und die Gefährlichkeit des Unfalls ist proportional zur Mächtigkeit des verunfallenden Systems. Denken wir an Social Media. Die Euphorie aus den Anfangstagen war im Nu verflogen, als wir feststellten, dass Plattformen als politische Waffen … Weiterlesen
Verschlagwortet mit ki large language models musk twitter xai
2 Kommentare
Was sind Large Language Models und wie funktionieren sie?
Large Language Models (LLMs) sind in aller Munde, aber kaum jemand versteht, wie sie funktionieren. Es gibt einige ganz gute Explainer in englischer Sprache, aber keine wirklich guten in Deutsch (jedenfalls ist mir keiner untergekommen). Dies ist ein Auszug aus der Literaturstudie: „Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft“, die ich für die Hans-Böckler-Stiftung erstellt habe. Ich habe den Erklärteil zu LLMs herausgelöst, um ein breiteres Verständnis für die Technologie zugänglicher zu machen. Begriffe zur Einführung Künstliche Intelligenz (KI) ist ein Feld der Informatik, das fast so alt ist wie die Informatik selbst. In der KI geht es darum, Computer dazu zu bringen, auf bestimmte Arten zu agieren, die von Menschen als intelligent empfunden werden. Das schließt unter anderem die Lösung von komplexen Problemen, das selbstständige Lernen von neuen Fähigkeiten und auch die Beherrschung der menschlichen Sprache mit ein. Künstliche Neuronale Netzwerke (KNN) sind die derzeit meistverwendete Technologie im Feld der KI. KNN bestehen aus künstlichen Neuronen und sind von den neuronalen Netzwerken im Gehirn von Menschen und Tieren inspiriert. KNN werden in einem Prozess namens „Deep Learning“ oder auch „maschinelles Lernen“ mit großen Datenmengen trainiert und erlangen dadurch Fähigkeiten, die schwer wären, durch normale Programmierung … Weiterlesen
Verschlagwortet mit chatgpt ki large language models openai
6 Kommentare
Danke für den Fisch!
Ich ziehe mich von Twitter zurück. Ich werde meinen Account behalten, ihn aber stilllegen. Ich werde die App von meinen Geräten werfen und die Website nicht mehr ansteuern. Ich spreche seit der Übernahme von Elon Musk immer wieder davon, dass ich diesen Schritt zunehmend als notwendig erachte. Ich brauche immer etwas, bis bei mir aus einer Idee ein Entschluss und aus dem Entschluss eine Tat wird. Nun ist es soweit. Es gibt dafür gar keinen konkreten Anlass, eher ein Gesamtbild, dass sich immer erkennbarer zusammengefügt. Twitter ist jetzt die persönliche Waffe von Elon Musk im weltweit tobenden Kulturkampf. Momentan funktioniert das zwar eher schlecht als recht, aber der Schaden für den Diskurs und die Demokratie ist trotzdem heute schon real. Twitter verändert sich rasant und wird immer mehr zur rechten Trollhölle aber gleichzeitig wird es in der Öffentlichkeit nach wie vor ernst genommen. Das ist eine gefährliche Entwicklung, denn sie verschiebt gesellschaftliche und politische Erwartungen und normalisiert Dinge, die nicht normalisiert gehören. Musks Waffe feuert nicht plötzlich, sondern sukzessive und allmählich und normalisiert eine neue Art des Diskurses „one scandal at a time“. Man konnte den Mechanismus bei Donald Trump gut beobachten: Trumps Erbe sind nicht die einzelnen Policyentscheidungen seiner … Weiterlesen
Verschlagwortet mit integrationsangriff mastodon musk twitter
7 Kommentare
Derrida und ChatGPT – Ein philosophischer Dialog über Sprache und Denken
Ich lese gerade viel zu LLMs und dem ganzen KI-Kram und ich bin hin- und hergerissen zwischen: „oh Gott ist das spannend, das wird alles ändern!“ und „ich will nur noch in Rente gehen!“ Je mehr ich mich mit der Funktionsweise der Sprachmodelle beschäftige, desto stärker fühle ich mich in die Zeit meiner Beschäftigung mit dem Poststrukturalismus, insbesondere mit Derrida, zurückgeworfen. Mir scheint, dass das „Denken“ der KI, gerade weil es nur statistische Auswertung von Texten ist, die Intertextualitätsthese des Poststrukturalismus gewissermaßen beweist. Während ich also so vor mich hinräsoniere, ob das wirklich der Fall sein kann, ist mir eingefallen, dass ich ja mal jemanden fragen kann, der sich damit auskennt: ChatGPT! Ich fand die Konversation angregend, obwohl man stellenweise merkt, wie erstens das Modell sehr affirmativ angelegt ist (es versucht im erstens Schritt mir immer recht zu geben), zweitens, dass die Reasoningfähigkeiten jedoch noch recht begrenzt und oberflächlich sind (zu einem Großteil versucht es nur meine Aussagen umzuformulieren) und drittens Guardrails (meine Vermutung) dafür sorgen, dass das Programm nicht allzu bolde Claims über seine eigenen Fähigkeiten macht (Bezüge auf eigene Denkfähigkeiten werden routiniert relativiert). Und doch ist unzweifelhaft zu erkennen, dass hier auch Verstehen passiert. Nachvollzug von Gedanken, Text- … Weiterlesen
Verschlagwortet mit kontrollverlust query queryology
2 Kommentare
Die Graphnahme der Gesundheit
Ein strategisches Planspiel zur möglichen Plattformisierung des deutschen Gesundheitssystems Dieser Text ist in dem Sammelband „Gesundheit im Zeitalter der Plattformökonomie“ erschienen. HINWEIS: Der Text versucht gendergerechte Sprache zu verwenden. Bei der Mehrzahl von Personen werden männliche wie weibliche Formen mit dem :-Zeichen angezeigt. Bei der Einzahl wird das generische Femininum verwendet. Nur bei dem häufig verwendeten Begriff „Arzt-Patienten-Verhältnis“ verwende ich aus kosmetischen Gründen das generische Maskulinum. Ein Gespenst geht um in Europa, das Gespenst der Plattformisierung. Nicht erst, aber ganz besonders seit der Coronakrise, die viele unserer Aktivitäten ins Digitale zwangsverlegte, haben Plattformen enorme Umsatzsteigerungen verzeichnet. Doch nicht nur Amazon, Zoom und Netflix sind Gewinner der Pandemie, sondern auch Plattformen im Gesundheitsbereich. Gerade während der Pandemie wollten viele sich nicht mehr in stickige, ungelüftete Wartezimmer von Ärzt:innen setzen und so führte das zu einem Aufstieg der Telemedizin. In den USA waren Telemedizin-Sitzungen bereits der Normalfall in vielen Arztpraxen (Seema 2020). Auch Terminportale wie Doctolib haben einen Boom erlebt, waren doch viele Menschen auf der Suche nach impfenden Ärzt:innen. Doch auch unabhängig von der Pandemie wird viel Geld in diesen Bereich investiert. Die Versprechen sind gigantisch: verbesserte Effizienz durch digitale Abläufe, weniger Bürokratie, neue Erkenntnisse durch aggregierte Daten, mehr Selbstbestimmung der … Weiterlesen
Leseprobe 4: Die Politik des Flaschenhalses als Waffe
/**** Ihr kennt das Spiel. Immer wenn es zu den Ereignisse in der Welt passende Passagen aus meinem Buch gibt, die helfen, sich in der aktuellen Situation zurechtzufinden, hau ich sie als Leseprobe heraus. Nach dem Angriff Russlands auf die Ukraine wird Russland derzeit von der Weltgemeinschaft mittels der Politik des Flaschenhalses deplattformisiert. Dass Plattformen immer wieder als geopolitische Waffe verwendet werden, ist auch Thema meines Buches. In diesem Abschnitt erkläre ich die Politik des Flaschenhalses als Waffe, die Russland derzeit überall zu spüren bekommt. Er findet sich in Kapitel 6: Plattformpolitik und dort im Unterkapitel Netzsicherheitspolitik. *****/ Als Hillary Clinton 2010 düpiert vor der Weltöffentlichkeit stand, weil Wikileaks einen Großteil der vertraulichen Kommunikation ihres Ministeriums öffentlich gemacht hatte, setzte sie trotz ihres emphatischen Bekenntnisses zur Internetfreiheit alle Hebel in Bewegung, um Wikileaks mundtot zu machen. Einer der ersten Angriffspunkte waren Wikileaks’ Finanzströme. Das US-Außenministerium machte Druck bei den Dienstleistern, bei denen Wikileaks Kunde war: PayPal, Bank of America, Mastercard, VISA und Western Union. Sie alle froren daraufhin die Konten von Wikileaks ein und beendeten die Geschäftsbeziehungen.1 Bis dahin war vor allem China dadurch aufgefallen, dass es in netzaußenpolitischen Auseinandersetzungen auf die Politik des Flaschenhalses setzte, während die USA sich damit rühmten, ein freies und offenes Netz … Weiterlesen
Leseprobe 3: Cybersouveränität versus Infrastrukturhegemonie
/***** Da gerade eine spannende Debatte über „digitale Souveränität“ anlässlich des „Sovereign Tech Fund“ tobt (Twitterthread hier), will ich sozusagen als ein weiteres Puzzelteil, den passenden Abschnitt aus meinem Buch beisteuern. Es ist teil des sehr langen und ausführlichen Kapitels zu Plattformpolitik und dort vom Teil über Netzaussenpolitik. Durch diese Einbettung sind eventuell einige Begriffe nicht ganz geläufig, was sich aber leicht beheben lässt, indem man das ganze Buch liest. *****/ Nicht alle Staaten lassen sich durch die Plattformsouveränität und Infrastrukturhegemonie der großen Tech-Unternehmen beeindrucken, was insbesondere das Scheitern von Google in China bezeugt. Als das Unternehmen dort 2006 seine Präsenz ausbaute und eine speziell auf die Bedürfnisse der chinesischen Regierung optimierte Suchmaschine unter google.cn startete, waren alle Beteiligten erst einmal optimistisch. Google hatte von Microsoft den taiwanesischstämmigen Kai-Fu Lee abgeworben – der als erfolgreicher USA- Auswanderer in China bereits eine Legende war –, um das Geschäft in Peking aufzubauen. Das Unternehmen würde den Zensuransprüchen der chinesischen Regierung nachkommen, verzichtete aber auf Services, die persönliche Daten in China gespeichert hätten, wie Gmail, blogger.com oder Picasa – allein um Anfragen der chinesischen Regierung nach der Herausgabe dieser Daten vorzubeugen. Die Zensurmaßgaben wurden derweil von Google eigenwillig umgesetzt. So blendete google.cn den Nutzer*innen immer auch … Weiterlesen