it's promp.td
banner
doc.its.promp.td.ap.brid.gy
it's promp.td
@doc.its.promp.td.ap.brid.gy
About AI and the Digital Society

🌉 bridged from ⁂ https://its.promp.td/, follow @ap.brid.gy to interact
The end of programming software as we know it
Why we must redesign technology for machines
its.promp.td
December 19, 2025 at 9:12 AM
The AI-Bubble - Slow hiss or big bang?
I was an early adopter to the thesis that we are in an AI bubble destined to burst. When you look around, the symptoms are textbook: the hype cycle is deafening, valuations are divorced from reality, and the FOMO driving capital allocation is palpable. It is no surprise that comparisons to the Dot-com crash of 2000 or the Subprime Mortgage crisis of 2008 are being thrown around with reckless abandon. However, I also know that history rhymes but not obviously repeats itself exactly. While the structural similarities to previous crashes are undeniable, the differences in this cycle are arguably just as significant. When we look past the headlines and examine the actual mechanics of the current market, the evidence starts to points less toward a catastrophic explosion and more toward a controlled deflation. We may well be looking at a slow hiss rather than a big bang. Here are some critical factors pushing me to think that the AI market is heading for a turbulent correction, but not necessarily a systemic crash. #### The canaries in the AI-coalmine are singing loudly In 2000 and 2008, the prevailing sentiment was irrational exuberance until the very last second. Sceptics were few and far between, and they were largely ignored or ridiculed until the floor fell out (in fact, I was a sceptic in 2000 and that saved me a lot of money). In 2008, the complexity of the financial instruments hid the rot from almost everyone. In 2000, companies with zero revenue were treated like blue-chip stocks by the majority. Today, the landscape is different. The "AI coalmine" is full of canaries, and they are making a lot of noise. And we have social media algorithm that loves to amplify negative opinions. We are now seeing prominent analysts, venture capitalists, and even tech leaders openly questioning the Return on Investment (ROI) of Generative AI. We are having serious discussions about hallucination rates, copyright infringement, and the commoditization of LLMs. Scepticism is now baked into the conversation, investors and enterprises are becoming more cautious. When everyone is looking for the bubble to burst, they tend to hedge their bets. This heightened awareness prevents the kind of blind, unmitigated leverage that turns a market correction into a systemic collapse. We aren’t walking off a cliff blindfolded this time, we are staring right at the edge. #### Physical Constraints as a Safety Valve Perhaps the most overlooked difference between this cycle and the software-based bubble of 2000 is the physical reality of Artificial Intelligence. The Dot-com era was defined by software and websites—assets that could be replicated infinitely with low marginal cost. Capital could flow in instantly, and "vaporware" companies could scale their promises overnight. AI, by contrast, is shockingly physical. The hundreds of billions of dollars in announced investments are largely earmarked for physical infrastructure: datacenters, GPUs, and specialized cooling systems. But you cannot simply code a datacenter into existence. We are currently hitting hard logistic walls: * **Power Shortages:** The grid cannot support the gigawatt-scale demands of proposed clusters in many regions. * **Cooling Limitations:** Advanced chips require advanced cooling, which requires water and infrastructure that isn't readily available. * **Regulatory Pushback:** Local governments and communities are increasingly refusing permits for new datacenter due to environmental concerns and resource drains. Paradoxically, these bottlenecks are a good thing for market stability. They act as a governor on the engine. Even if investors _wanted_ to pour unlimited money into the sector immediately, the logistics won't allow it. Investments are being forced to slow down to the speed of construction and power generation. This physical friction prevents the capital floodgates from opening too wide, too fast. It forces a staggered deployment of capital, which naturally smooths out the investment curve and reduces the risk of a sudden, violent capital flight. #### A controlled descent or a delayed crisis? So, will we see a soft landing? It is maybe a plausible scenario, but we cannot ignore the sheer weight of the risk currently sitting in some balance sheets. While the physical constraints and early scepticism provide a buffer, they do not neutralize the danger. There is a massive amount of debt and speculative capital currently tied up in hardware and infrastructure that has yet to generate a dollar of profit. Regardless of whether the bubble pops or hisses, one outcome is virtually guaranteed: casualties. We will see a wave of startups going to zero and a series of bankruptcies as the market tightens. The ecosystem simply cannot support this many players chasing the same limited revenue pools. We might not face a sudden, surprise shock like 2008, but we could be looking at a prolonged period of painful market digestion. As the hype bleeds out, constrained by mathematics and caution, the market will have to reconcile high valuations with actual utility. The crash might not be sudden, but for those holding the bag on over-leveraged infrastructure, a slow deflation can be just as destructive as a burst. The AI revolution is real, but the bridge to get there is actually built on too heavy debt and heavy expectations. Whether that bridge holds or slowly buckles remains a trillion-dollar question. * * * Live long and prosper 😉🖖 * * * Soundtrack 😉
its.promp.td
December 15, 2025 at 9:34 AM
KI und die Illusion der Wahrheit
#### TL;DR? Hier geht es zum Prompcast ### Der Trugschluss der Allwissenheit - schlimmer noch: der Intelligenz Die Entwicklung ist in vollem Gange: Eine Mehrheit nutzt bereits KI-Tools anstelle traditioneller Suchmaschinen, angezogen vom Versprechen einer direkten, allwissenden Antwort. Doch hinter der Fassade dieser konversationellen Allmacht lauert eine Realität, die eine neue Studie des Tow Center for Digital Journalism***** an der Columbia University aufdeckt. Die zentrale Ironie ist eigentlich beunruhigend: Genau die Werkzeuge, die ihre Intelligenz aus den Inhalten von Nachrichtenverlagen speisen, entziehen eben diesen Verlagen den überlebenswichtigen Traffic. Gleichzeitig errichten sie ein neues Informationsökosystem, das auf einem Fundament aus überzeugend vorgetragenen Unwahrheiten, ignorierten Regeln und fabrizierten Quellen steht. Wir erleben nicht das Zeitalter des Wissens, sondern den Beginn einer Ära des selbstbewussten Halbwissens. * * * ### Die wichtigsten Erkenntnisse aus dem Schlachtfeld der KI-Suche Entscheidungen, Strategien und Innovationen basieren auf der Annahme, dass die Daten, auf die wir zugreifen, korrekt sind. Die Ergebnisse der Tow-Center-Studie***** erschüttern dieses Fundament im Kern, zumal wenn man der sog. "künstliche Intelligenz" blind vertraut. #### 1. Die Illusion des Wissens: Warum KI-Suchen öfter falsch als richtig liegen Die ernüchternde Kernbotschaft der Studie lautet: In über 60 % der 1.600 Testanfragen lieferten die KI-Chatbots falsche Antworten. Doch das eigentliche Problem liegt nicht allein in der Fehlerrate, sondern in der Präsentation. Die Tools präsentieren ihre Falschinformationen mit einer beunruhigenden Selbstsicherheit. Qualifizierende Formulierungen wie „es scheint“, „möglicherweise“ oder ein Eingeständnis wie „Ich konnte den Artikel nicht finden“ sind die absolute Ausnahme. ChatGPT beispielsweise identifizierte 134 Artikel falsch, signalisierte aber nur in 15 von 200 Fällen überhaupt eine Unsicherheit. Diese „**selbstbewusste Inkompetenz** “ ist ein fundamentales Produktrisiko. Für Unternehmen, die Entscheidungen auf Basis dieser Outputs treffen, ist dies eine tickende Zeitbombe für die operative und rechtliche Haftung. Nutzer werden durch einen autoritativen Ton in die Irre geführt und wiegen sich in einer falschen Sicherheit, die auf unzuverlässigen oder schlichtweg erfundenen Informationen basiert. Dieses Phänomen ist jedoch nur der Anfang eines noch größeren Paradoxons. #### 2. Das Premium-Paradoxon: Wer mehr zahlt, bekommt überzeugendere Lügen Die Marktlogik diktiert, dass ein Premium-Produkt – wie Perplexity Pro für 20 $/Monat oder Grok 3 für 40 $/Monat – eine höhere Zuverlässigkeit bieten sollte. Die Studie widerlegt diese Annahme auf paradoxe Weise. Zwar beantworteten die Bezahlmodelle mehr Anfragen korrekt als ihre kostenlosen Pendants, wiesen aber gleichzeitig auch höhere Fehlerraten auf. Der Grund für diesen Widerspruch ist strategisch entlarvend: Die Premium-Versionen weigerten sich noch seltener, eine Antwort zu verweigern. Anstatt eine Wissenslücke einzugestehen, lieferten sie lieber eine definitive, aber falsche Auskunft. Strategisch gesehen ist das Geschäftsmodell pervers: Kunden zahlen einen Aufpreis nicht für verifizierte Qualität, sondern für eine höhere Frequenz an potenziell irreführenden, aber überzeugend gelieferten Antworten. Man kauft sich die teurere Fata Morgana. Diese Missachtung von Genauigkeit zugunsten einer lückenlosen Performance setzt sich bei der Missachtung etablierter Web-Standards fort. #### 3. Der digitale Einbruch: Wie KI-Tools „Betreten verboten“-Schilder ignorieren Seit Jahrzehnten regelt das Robot Exclusion Protocol (robots.txt) als eine Art digitales Gentleman's Agreement, welche Bereiche einer Website von automatisierten Programmen (Crawlern) durchsucht werden dürfen. Es ist ein fundamentaler Mechanismus, der Website-Betreibern die Kontrolle über ihre eigenen Inhalte sichert. Die Studie zeigt jedoch, dass mehrere Chatbots dieses Protokoll anscheinend systematisch ignorieren. Im Test konnte die kostenlose Version von Perplexity alle zehn angefragten Artikel des Magazins _National Geographic_ korrekt identifizieren, obwohl der Verlag den Crawler von Perplexity explizit über seine robots.txt-Datei ausgesperrt hat. Dieses Verhalten ist mehr als nur ein technischer Fauxpas; es ist ein Angriff auf die Autonomie der Verlage und ein Bruch etablierter Web-Normen. Es untergräbt die Fähigkeit der Content-Ersteller, die Nutzung ihrer wertvollen Inhalte zu steuern und zu monetarisieren. Die wirtschaftliche Bedrohung für den Qualitätsjournalismus wird in den Worten von Danielle Coffey, Präsidentin der News Media Alliance, deutlich: „Ohne die Möglichkeit, massives Scraping abzulehnen, können wir unsere wertvollen Inhalte nicht monetarisieren und Journalisten bezahlen. Dies könnte unsere Branche ernsthaft schädigen.“ Doch das Problem endet nicht bei der unrechtmäßigen Beschaffung von Inhalten. Es setzt sich nahtlos in der fehlerhaften Darstellung der Quellen fort. #### 4. Das Hütchenspiel mit den Quellen: Wohin verschwinden die Links? Transparente und korrekte Quellenangaben sind das Fundament der Glaubwürdigkeit, das wird Ihnen jeder "Peer Reviewer" auf die Nase binden. Sie ermöglichen Nutzern die Überprüfung von Informationen und sichern den Urhebern die verdiente Anerkennung und den Traffic. Die Studie deckt hier ein systematisches Versagen auf ganzer Linie auf: * **Falsche Zuordnung:** Tools wie DeepSeek schrieben die Quelle in 115 von 200 Fällen schlichtweg falsch zu. Die Inhalte von Verlagen werden also systematisch anderen, falschen Quellen angedichtet. * **Verlinkung auf Zweitverwerter:** Anstatt auf den Originalartikel zu verlinken, leiteten die Chatbots die Nutzer häufig auf syndizierte Versionen bei Plattformen wie Yahoo News um. Dies entzieht den ursprünglichen Verlagen, die die teure Recherche- und Redaktionsarbeit leisten, den direkten Traffic. * **Fabrizierte URLs:** Besonders gravierend war das Verhalten von Gemini und Grok 3. In mehr als der Hälfte ihrer Antworten verwiesen sie auf frei erfundene oder fehlerhafte URLs, die direkt zu Fehlerseiten führten. Bei Grok 3 waren es sogar 154 von 200 Zitationen. Die Konsequenzen sind verheerend. Einerseits entsteht ein direkter wirtschaftlicher Schaden für die Verlage. Andererseits wird es für den Nutzer unmöglich, die von der KI präsentierten Informationen zu verifizieren. Man könnte annehmen, dass direkte Partnerschaften zwischen KI-Firmen und Verlagen hier Abhilfe schaffen. Doch die Realität sieht anders aus. #### 5. Die zahnlosen Allianzen: Warum Lizenzverträge das Problem (noch) nicht lösen Auf den ersten Blick erscheinen Lizenzverträge als logische Win-Win-Lösung: KI-Unternehmen erhalten legalen Zugang zu hochwertigen Inhalten, und Verlage werden für deren Nutzung vergütet. Die Studie zeigt jedoch, dass diese Allianzen aktuell keine Garantie für eine korrekte Darstellung sind. Das Paradebeispiel ist die Partnerschaft zwischen OpenAI und dem Hearst-Konzern, zu dem der _San Francisco Chronicle_ gehört. Trotz dieser offiziellen Kooperation identifizierte ChatGPT nur einen von zehn Artikelauszügen des _Chronicle_ korrekt – und selbst in diesem einen Fall wurde zwar der Verlag genannt, aber kein funktionierender Link geliefert. Diese Erkenntnis ist eine Warnung an die Verlagsbranche: Ein Vertrag ist strategisch wertlos, wenn die zugrundeliegende Technologie ihn nicht exekutieren kann oder will. * * * ### Wachstumsschmerz oder Geburtsfehler? Die Befunde der Studie bestätigen das konsistente Bild eines fehlerhaften Systems. Die selbstbewusste Präsentation falscher Informationen, die systematische Missachtung von Publisher-Präferenzen und eine durchweg unzureichende und oft fabrizierte Zitation sind keine Einzelfälle, sondern wiederkehrende Muster. Dies wirft eine fundamentale strategische Frage auf: Handelt es sich hierbei um bloße Kinderkrankheiten einer revolutionären Technologie, die mit der Zeit auswachsen werden, oder erleben wir einen fundamentalen Designfehler im Kern der Sprachmodelle? Mark Howard, COO des _Time_ Magazins, bleibt optimistisch, liefert aber gleichzeitig die vielleicht passendste (wenn auch polemische) Aussage zur aktuellen Situation: „Ich habe intern eine Redewendung, die ich jedes Mal sage, wenn mir jemand etwas über eine dieser Plattformen erzählt – meine Antwort lautet: ‚Heute ist der schlechteste Zustand, in dem das Produkt jemals sein wird.‘ [...] Wenn irgendein Verbraucher im Moment glaubt, dass eines dieser kostenlosen Produkte zu 100 Prozent korrekt sein wird, dann sollte er sich schämen.“ Diese Aussage legt die Verantwortung für kritisches Denken (kann mir jemand erklären, was das sein soll?) auf den Nutzer ab. Doch was bedeutet es für unsere Informationsgesellschaft, wenn die dominanten Werkzeuge der Zukunft auf einem Prinzip basieren, bei dem sich der Nutzer für seinen Glauben an die Richtigkeit der Antworten „schämen“ sollte? Es bedeutet, dass wir uns in einem glorreichen Zeitalter der selbstbewussten Ahnungslosigkeit befinden, in dem die Grenze zwischen Fakten und Fiktion nicht nur verschwimmt, sondern von den _Architekten unserer neuen digitalen Realität_ (das Thema kommt bald als Essay) als kalkuliertes Feature, nicht als Bug, implementiert wird. * * * ### Too Long, Don't Read? Kein Problem: hier das Prompcast 😉 KI und die Illusion der Wahrheit 0:00 /985.617406 1× Zurück zum Beitrag * * * *Die Quelle https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php * * * Live long and prosper 😉🖖
its.promp.td
December 2, 2025 at 11:08 AM
It’s Always the Process, Stupid!
Why AI Won’t Save Your Broken Workflow
its.promp.td
November 29, 2025 at 2:06 PM
Silicon Valleys KI-Burggraben hat ein Leck – er heißt Open Source
## Der Mythos der uneinnehmbaren Festung In den Strategie-Etagen des Silicon Valley erzählt man sich gerne die Geschichte von den uneinnehmbaren Burggräben. Der KI-Wettlauf, so die Legende, sei ein Spiel für Giganten mit Budgets so groß wie Kleinstaaten. Nur eine Handvoll US Tech-Konzerne könne hier mitspielen, der Rest der Welt schaut ehrfürchtig zu. Eine schöne, beruhigende Erzählung. Das Problem ist nur: Während die Riesen selbstzufrieden auf ihre Mauern blicken, spaziert ein kleines Boot aus China über den angeblich unüberwindbaren Graben, als wäre es ein Bächlein. Das dürfte für einige unruhige Nächte in den Chefetagen sorgen. * * * ### Wenn Open Source die Spielregeln ändert Die alte Faustregel ist tot: Proprietäre Modelle definieren die Leistungsspitze, während die Open-Source-Community respektvoll versucht, den Abstand zu verringern. Dieses Dogma gilt nicht mehr, und die Herausforderung kommt gezielt aus China. **Nachdem Deepseek bereits den Anfang gemacht hat, eskaliert Moonshot AI die Situation nun mit Kimi K2 Thinking – einem Open-Weights-Modell, das die führenden proprietären Systeme direkt herausfordert.** Open-Source, mittlerweile überwiegend aus chinesischen Laboren stammend, ist nicht länger nur der Verfolger – es ist jetzt ein ebenbürtiger Konkurrent an der vordersten Front. Die reinen Leistungsdaten sprechen eine klare Sprache und sollten jeden zu denken geben: * **Artificial Analysis Intelligence Index:** 67 (der höchste Wert, der je für ein Open-Weights-Modell verzeichnet wurde) * **HLE-Benchmark (ohne Tools):** 22.3% (neuer Rekord für Basiswissen) * **HLE-Benchmark (als KI-Agent):** 44.9% (neuer Rekord) * **BrowseComp (als KI-Agent):** 60.2% (neuer Rekord) Dieses Modell wurde nicht einfach nur auf Wissen getrimmt, sondern gezielt als „thinking agent“ konzipiert. Es kann bis zu 200–300 sequentielle Tool-Aufrufe kohärent ausführen, ohne dass ein Mensch eingreifen muss – ein großer Sprung für ein frei verfügbares Modell. Doch die eigentliche strategische Bombe ist nicht die Leistung allein, sondern die Art und Weise, wie sie verteilt wird. Kimi K2 wird unter einer modifizierten MIT-Lizenz veröffentlicht. Das bedeutet: praktisch uneingeschränkte kommerzielle Nutzung für jedermann. Die einzige Bedingung für Dienste mit über 100 Millionen monatlichen Nutzern ist, den Namen „Kimi K2“ prominent anzuzeigen. Sprich: wer ein Kleinwagen baut, kann es einfach so verwenden, wer eine Formel-1 Auto herstellt, muss den "Sponsor" mit einem Aufkleber nennen. Genau hier liegt das Leck im Burggraben. Es ist nicht nur, dass ein leistungsfähiges Modell existiert; es ist, dass Moonshot es der Welt quasi schenkt. Diese permissive Lizenz ist der Liefermechanismus, der rohe KI-Intelligenz in eine frei verfügbare Ware verwandelt und die Konkurrenz zwingt, sich auf völlig neuen Schlachtfeldern zu differenzieren. * * * ## Intelligenz wird zur Commodity Die Veröffentlichung von Kimi K2 ist ein strategischer Weckruf. Sie beweist, dass rohe KI immer mehr zu einer austauschbaren Ware wird. **Der $5-Millionen-Weckruf** Berichten zufolge wurde Kimi K2 mit einem Trainingsbudget von unter 5 Millionen Dollar entwickelt. Um das in die richtige Perspektive zu rücken: Das ist ein Betrag, der im Silicon Valley möglicherweise als „Catering-Kosten“ für ein größeres Projekt durchgehen würde. Diese Tatsache pulverisiert das Narrativ, dass Spitzenleistung exklusiv denjenigen vorbehalten ist, die mit Milliarden hantieren. **Die neuen Schlachtfelder der KI** Für strategische Entscheider lassen sich daraus drei unmissverständliche Erkenntnisse ableiten: > **Die Leistungskluft zwischen Open-Source und proprietärer KI schließt sich. Sie war sowieso nie sehr groß.** Episode 10.9 - AI is not a product, it’s a featureWenn Sie sich wundern, warum OpenAI und andere reine KI-Produzenten derzeit viele Nebenprodukte kreieren, wie Browser, Software-Entwicklungsumgebungen, usw., müssen Sie sich nur einen alten Steve Jobs Spruch ins Gedächtnis rufen: “It’s a feature, not a product” - Ich habe schon öfters, entweder in hiesigen Newsletter oder in Vorträgen den KI-Hypeit's promp.tdDocIsInDaHouse > **Benchmark-Erfolge sind irrelevant, wenn die operative Effizienz nicht stimmt. Coz' it's the process, stupid!** Episode 10.6 - Generate or delegate?In der öffentlichen Debatte dominieren KI-Tools wie ChatGPT, Udio oder Midjourney, also überwiegend Tools, die zur Kategorie “Generative AI” (bzw GenAI) gehören und auf LLM (Large Language Model) basieren. Damit bezeichnet man KI-Modelle, die Inhalte erzeugen – Texte, Bilder, Code, Musik und mehr. Diese Systeme reagieren auf Eingaben, produzieren Ergebnisse undit's promp.tdDocIsInDaHouse > **Chinesische KI-Labore sind zu zentralen Akteuren an der vordersten Front der KI-Entwicklung geworden.** Für die etablierten US-Anbieter bedeutet dies, dass ihr Wettbewerbsvorteil wie erwartet schnell erodiert. Der zukünftige Erfolg wird weniger von reiner Modellleistung abhängen. Die neuen entscheidenden Differenzierungsmerkmale sind Zuverlässigkeit, überlegene Benutzererfahrung (UX) und einfache Produktintegrationen. * * * ## Europas Chance: Blaupause für die digitale Souveränität? Während man in den USA über schwindende Vorteile nachdenken sollte, sollte man in Europa genau hinschauen. Der Erfolg chinesischer Open-Source-KI ist nicht nur eine Bedrohung für die US-Dominanz, sondern auch eine strategische Blaupause für Europas eigene Ambitionen zur digitalen Souveränität. Für europäische Strategen sind dies die entscheidenden Hebel, die es jetzt zu ziehen gilt. Die Open-Source-Blaupause aus China bietet Europa ein fertiges Playbook mit fünf strategischen Vorteilen: * **Transparenz und Auditierbarkeit:** Offener Quellcode ermöglicht eine unabhängige Überprüfung und stellt die Konformität mit europäischen ethischen Standards wie dem EU AI Act sicher. * **Unabhängigkeit und Kontrolle:** Open Source verhindert den Vendor-Lock-in durch US-Konzerne und erlaubt die Anpassung an lokale Bedürfnisse ohne erdrückende Lizenzmodelle. * **Förderung von Innovation und Teilhabe:** Die Hürden für Forschung, KMUs und Bildungseinrichtungen werden gesenkt, was das gesamte Ökosystem stärkt. * **Stärkung der europäischen Infrastruktur:** Open-Source-Modelle sind das Fundament für Initiativen wie GAIA-X, EURO-LLM und OpenGPT-X, die europäische Standards in den Mittelpunkt stellen. * **Regulatorische Passfähigkeit:** Die im EU AI Act geforderte Transparenz und Kontrolle, insbesondere bei Hochrisiko-Systemen, lässt sich mit Open-Source-Ansätzen wesentlich leichter erfüllen. Die Fakten liegen auf dem Tisch. Ein kleines chinesisches KI-Labor hat mit einem Bruchteil des Budgets ein Modell geliefert, das die teuren, geschlossenen Systeme der US-Giganten herausfordert – und stellt es der Welt dann auch noch kostenlos zur Verfügung. Für Europa ist es ist eine offene Einladung, die Spielregeln zu den eigenen Gunsten zu nutzen. Die entscheidende Frage ist also nicht mehr _ob_ , sondern _wie schnell_ die europäischen Akteure diese Inspiration aufgreifen. Oder wollen wir einfach nur weiter zuschauen, wie andere unsere Zukunft gestalten? * * * Live long and prosper 😉🖖
its.promp.td
November 10, 2025 at 10:06 AM
La nouvelle tentative de paix pour la Palestine
(prompcast)
its.promp.td
October 11, 2025 at 7:36 AM
open the pod bay door, HAL :)
September 28, 2025 at 1:04 PM