du liest cool genug, den tech- und storytelling-newsletter von gregor schmalzried. find me on linkedin!
Weniger ChatGPT ist mehr ChatGPT
Vom Sommer 2022 bis ca Silvester hatte ich ein neues Hobby: Versuchen, Nicht-Nerds davon zu überzeugen, dass GPT ein Big Deal ist.
Ich hatte nicht immer Erfolg. Jemandem ChatGPT zu erklären, der für diese Art von Technologie kein Händchen hat, ist erstaunlich kompliziert — und frustrierend. Ich kam mit Prompt-Beispielen an, die mich faszinierten (“Gib mir eine Liste von zehn Metaphern für jemanden, der in einer brenzligen Situation steckt” oder “Erstelle eine Tabelle, die Angela Merkel und Godzilla vergleicht”), aber bei vielen sorgten die Ergebnisse maximal für ein “Aha.”
Bei meinem Vater hatte ich es dann irgendwann doch geschafft, ihn von der Technologie zu beeindrucken. Es war Weihnachten, wir saßen gelangweilt im Wohnzimmer herum, und auf einmal generierten wir mit ChatGPT eine fiktive Diskussion zwischen Hannah Arendt und John Locke. Oha!
Die gute Nachricht ist: Auch wenn generative KI wirklich die Revolution ist, die gerade viele in ihr sehen… Man wird nicht Hannah Arendt und John Locke brauchen, um sie zu erklären.
Denn die nächste Welle der KI-Anwendungen wird anders funktionieren als ChatGPT es getan hat.
1. DER LENNY BOT
Anfang Februar präsentierte Newsletterautor Lenny Rachitsky den “Lenny Bot” — ein Chatbot auf GPT-Basis, der mit all seinen Newsletterausgaben gefüttert wurde. Ein ähnliches Experiment hatte ich tatsächlich zwei Wochen zuvor selber durchgeführt, der Lenny Bot hat im Vergleich zum Gregorbot jedoch einen entscheidenden Vorteil: Man kann mit ihm sprechen. Bedeutet: Wenn ich zum Beispiel wissen möchte, ob ich ein Softwareprodukt “in public” entwickeln sollte (d.h. es frei verfügbar machen und ständig Feedback einholen), kann ich den Lenny Bot fragen: “should I build in public?”. Der Lenny-Bot gibt mir daraufhin eine ausführliche Antwort, die er sich aus Newsletterausgaben zusammengeschnipselt hat — und die Links zu den entsprechenden Artikeln gleich mit dazu.
Expertentext, mit dem man sprechen kann.
Es ist leicht, sich ähnliche Anwendungen mit anderen Aufgaben vorzustellen:
Wie wäre es etwa mit…
einem Chatbot von einem Medienhaus, der mir beantworten kann, wann und wo der letzte Autounfall in meiner Nachbarschaft stattgefunden hat?
einem sprechenden Company-Wiki, in dem das Gedächtnis einer großen Organisation als Chatbot zur Verfügung gestellt wird?
einer schlaueren Version eines Cloud-Speichers, den ich fragen kann “An welcher Adresse habe ich am 1. Juni 2017 gelebt?” und der daraufhin einen alten eingescannten Brief ausfindig macht, auf dem meine Adresse an diesem Tag zu lesen ist?
Es ist teilweise heute schon möglich, solche Tools zu bauen. Rein technisch unterscheiden sie sich nicht gigantisch von dem, was der Lenny Bot tut: Informationen einsammeln und mithilfe eines mächtigen Sprachmodells wieder ausspucken.
Sogar ich, mit meinen dürftigen Python-Kenntnissen, könnte wohl mit reichlich Zeit und Sitzfleisch etwas zusammenzimmern, was ungefähr so gut ist wie der Lenny Bot (nicht zuletzt da der Ersteller des Lenny Bots eine ausführliche Anleitung verfasst hat).
Aber will ich das auch?
2. GIVE ME CONVENIENCE, OR GIVE ME DEATH
ChatGPT ist ein horizontales Tool. Wenn man weiß, wie man damit umgeht, kann man damit quasi alles tun. Das Problem liegt im ersten Teil des Satzes: “Wenn man weiß, wie man damit umgeht”.
Obwohl OpenAI sich mit der Zahl von 100 Millionen Usern schmückt, ist völlig klar: ChatGPT ist kein Massenmedium. Ja, ChatGPT ist sehr viel einfacher zu bedienen und verstehen als andere KI-Tools. Nur weil man einmal ChatGPT geöffnet und damit Weihnachtsgrüße verfasst hat, hat man nicht verstanden, was dieses Tool eigentlich kann, oder weiß, wie man es in der Arbeit einsetzen kann, oder hat überhaupt ein Interesse, es herauszufinden.
ChatGPT ist vor allem ein Tool für Tüftler und Nerds. Für Leute, die Spaß damit haben, das Programm an seine Grenzen zu treiben.
Die meisten Leute sind aber keine Tüftler und Nerds. Wenn generative KI wirklich die Dienstleistungs-Branche umkrempeln soll, dann wird sie das nicht schaffen, wenn der durchschnittliche Mensch erst einmal ein Webinar besuchen muss, um zu verstehen, wie das eigentlich funktioniert.
Wir sind im Alltag völlig überwältigt und verwirrt. Wir treffen circa 35.000 Entscheidungen am Tag. Niemand will eine Software benutzen, die diese Zahl noch vergrößert. Deshalb ist Software für die meisten Menschen im allerbesten Fall auch ein “gelegentliches Ärgernis”. Besser wird es nicht. Je bequemer und einfacher, desto besser. Wie die Dead Kennedys es formulierten: “Give Me Convenience, or Give Me Death”.
Microsoft und OpenAI sind sich dessen offenbar bewusst.
In den Plänen, die die Unternehmen aktuell vorstellen, spielt die klassische ChatGPT-Oberfläche, die so oft viral gegangen ist, praktisch keine Rolle mehr.
Stattdessen rücken zwei Dinge in den Fokus:
Erstens: Integration in ALLES!
KI in der Bing-Suche. KI in Office. KI in Teams. KI in Windows. Wann immer du eine KI-Schaltfläche brauchen könntest, um mit deinem Content zu interagieren — da ist sie. (ob das so gut funktioniert, ist übrigens eine separate Diskussion)
Und zweitens: Die API — also die Schnittstelle, mit der externe Entwickler auf das GPT-Modell zugreifen können.
Gerade erst hat OpenAI angekündigt, den Preis für die ChatGPT-API massiv zu reduzieren — gleichzeitig sagt OpenAI-Chairman Greg Brockman, es sei eines seiner wichtigsten Anliegen, “super freundlich für Entwickler zu werden”. Wenn das alles so aufgeht, lässt sich GPT-unterstützte Software also bald immer einfacher und billiger herstellen.
Das bedeutet: Wenn ich in Zukunft meine eigene Version des Lenny Bots bauen möchte, dann muss ich nicht mehr selbst herausfinden, wie das geht. Stattdessen kann ich einen Dienstleister beauftragen können, der genau die Lösung, die ich suche, bereits anbietet. Alles was bleibt ist Inhalte hochzuladen und ein paar Parameter festzulegen. Der Homepage-Baukasten unter den KI-Anwendungen.
Und die anderen Beispiele, die ich mir vorhin ausgemalt hatte? Auch diese werden gerade von Startups jeder Art erforscht. GPT und die anderen großen Sprachmodelle werden zur Infrastruktur, und die Software selbst wird zu den Autos, die die Straße befahren (und dafür Maut bezahlen). Diese Autos sind das, was Menschen überwiegend im Büro nutzen werden. Genau auf Nutzer, Anwendungsfall und Branche abgestimmt. Von der horizontalen, generellen Anwendung zur vertikalen, spezialisierten.
3. WENIGER CHATGPT IST MEHR CHATGPT
Im Jahr 1995 wurde Craigslist gegründet — eine minimalistische Kleinanzeigen-Website, die vor allem in den USA in den 00er-Jahren jeder kannte, weil man dort alles vermittelt bekam — von Wohnungen über gebrauchte Möbel bis zu Dates.
Auch heute noch wird Craigslist viel genutzt, doch Craigslists Marktanteil in Sachen Online-Vermittlungen ist massiv gesunken.
Warum?
Weil das hier passiert ist:
Fast jeder Link auf der Craigslist-Startseite wurde zu seinem eigenen Startup — spezialisiert auf eine bestimmte Zielgruppe und eine bestimmte Aufgabe.
Es liegt nahe, dass etwas ähnliches mit der KI-Landschaft passieren wird… Das breite, aber wenig nutzerfreundliche Angebot von Craigslist/ChatGPT wird abgelöst durch spezialisierte Angebote von Startups und Apps.
Der Unterschied zu Craigslist ist: Microsoft und OpenAI scheinen sich jetzt schon auf diese Zukunft einzustellen, und stellen sicher, dass sie an jedem dieser entstehenden Startups mitverdienen können (zumindest solange ihr Sprachmodell Marktführer bleibt).
Wir sehen schon heute, wie das funktionieren kann: Immer mehr Apps und Software-Angebote bieten KI-Integrationen an — darunter die Orga-Software Notion, die Lern-App Quizlet, und sogar Snapchat.
Und dazu kommen noch die ganzen Startup-Ideen, die ohne diese Technologie gar nicht möglich wären. Die Text-KI Sudowrite zum Beispiel hat OpenAIs GPT-Modell so spezialisiert, dass es sich vor allem an Autor*innen von Fiction-Texten richtet. Seit zwei Jahren ist sie auf dem Markt, doch nach der Gratis-Veröffentlichung von ChatGPT letzten Sommer sanken die Nutzerzahlen für einige Tage… Nur um dann rasant zu steigen.
Meine Vermutung ist: Die Zukunft von KI-Anwendungen wird weniger aussehen wie ChatGPT und mehr wie Sudowrite. Also wie Apps, die auf den ersten Blick weniger können, aber dafür auch weniger Fehler machen und Prozesse klarer gestalten. Und vor allem: Apps, die endlich einfach vermitteln können, wozu man diese Technologie eigentlich braucht.
Außerdem
KI
Die KI von ElevenLabs erschafft synthetische Stimmen, die absolut menschlich klingen. 1e9.community
You Are Not a Parrot. And a chatbot is not a human. nymag.com
‘It’s fundamental’: WPP chief on how AI has revolutionised advertising. theguardian.com
Tech’s hottest new job: AI whisperer. No coding required. washingtonpost.com
Microsoft unveils AI model that understands image content, solves visual puzzles. arstechnica.com
Love in the Time of Replika. notboring.co
Content
New Words for New Worlds. zine.kleinkleinklein.com
Why VR/AR Gets Farther Away as It Comes Into Focus. matthewball.vc
How Shock Sites Shaped the Internet. vice.com
Yes, ‘Shmunguss’ Is A Real Netflix Category. youtube.com
Menschen und Maschinen
No more clumpy lipgloss: How TikTok's 'deinfluencing' trend became a marketing tactic. cbc.ca
We're humans, not brands. digitalhope.substack.com
Dystopia
TikToks Teenage-Filter: So jung kommen wir nicht mehr zusammen. br.de
Instagram users are being served gory videos of killing and torture. washingtonpost.com
How ChatGPT Could Spread Toxic Misinformation At Unprecedented Scale. newsguardtech.com
Mind control: The metaverse may be the ultimate tool of persuasion. venturebeat.com
TikTok hates your relationship. youtube.com
⚪️,