Stefan Trockel
banner
stefantrockel.com
Stefan Trockel
@stefantrockel.com
21st century digital boy | AI products and strategy | Music, Food, Football
Wenn man etwas raus zoomt kommt man zu einer ebenso wichtigen Grafik:

Die dem. Parteien des Bundestags repräsentieren nur 54% der deutschen Wahlberechtigten.

Es sind mehr Stimmen ohne Repräsentanz im BT, als auf die Union entfallen. Trotz höchster Wahlbeteiligung im wiedervereinigten Deutschland!
February 24, 2025 at 12:43 PM
Bezog sich auf deinen vorherigen comment.
December 27, 2023 at 8:20 PM
Ja, genau deshalb finde ich die Frage so spannend. Fast forward zu GPT-X und praktisch vollständiger Automation von Wissensarbeit.
Nur wenn wir den Wert von ‚human generated content‘ im Trainingsset erkennen, wird sich die Wertschöpfung des Models verteilen, statt nur dem Model owner zuzufallen.
December 27, 2023 at 8:19 PM
Ja, es läuft auf die Bedeutung von Copyright hinaus. Ich finde hier den Begriff ‚Verwertungdrechte‘ zielführender. Verwertet wurden die Texte. Und aus der Verwertung wird Wert geschöpft.
December 27, 2023 at 8:11 PM
Die Trainingsdaten liefern also auf statistischen Weg das faktische grounding.
Nimm zwei identische LLMs, eins mit NYT Artikeln, eins ohne. Du wirst Unterschiede in den Completions sehen. Gerade bei Themen, die dort stark repräsentiert sind.
December 27, 2023 at 8:04 PM
Bei LLMs geht es um die Wahrscheinlichkeit des nächsten Tokens. Stell Dir ein Thema vor, was bisher nicht in den Trainingsdaten vorkommt.
Dann generiert die GenAI zu diesem Thema nichts sinnvolles, sondern halluziniert.
Wenn du ihr nun Traingsdaten zu dem Thema gibst, werden die Outputs besser.
December 27, 2023 at 7:59 PM
Ich denke, die Frage geht deutlich tiefer, und die gesellschaftliche Antwort darauf betrifft auch weitaus mehr als nur die Verlage.
An tragfähigen Argumente zur Gegenposition zur Times wäre ich interessiert.
December 27, 2023 at 7:11 PM
Die Times kann aufgrund des relativ großen Anteils ihrer Texte an den Trainingsdaten vermutlich schlüssig argumentieren, dass die Gewichte und Wahrscheinlichkeiten in der Generierung zu vielen Themen ohne ihren Corpus gänzlich anders aussähen.
December 27, 2023 at 7:04 PM
Ich will nicht sagen, dass ich deiner Position widerspreche. Nur das ‚GenAI ist nicht Search‘ Argent ist nicht das, was die Frage klärt. Deshalb suche ich ja nach guten Argumenten für Gegenposition zur Tines.
December 27, 2023 at 6:54 PM
Funktionsweise von LLMs ist klar.
Aber ist es nicht dennoch ‚reproductive use‘?
Wenn ein Roman verfilmt wird, ist das oft eine freie Adaption des Originals, aber eindeutig IP.
Oder nimm manche Heil- oder Coching Methoden: Man zahlt für das erlernen und wendet sie später gegen Gebür an.
December 27, 2023 at 6:50 PM
In der Tat interessant.
Wie ist deine Argumentation die zu so einer eindeutigen Einschätzung kommt?
Ich finde die Frage deutlich nuancierter und wäre gespannt deine Argumente zu hören.
December 27, 2023 at 4:13 PM
Good for X, that their fines will become lower and lower over time 😂
October 12, 2023 at 6:06 PM
Die Überlegungen zu Hashtags auf bsky sind übrigens hier nachzulesen. Recht interessant. github.com/bluesky-soci...
proposals/0003-hashtags at main · bluesky-social/proposals
Bluesky proposal discussions. Contribute to bluesky-social/proposals development by creating an account on GitHub.
github.com
October 4, 2023 at 9:31 PM
Not that I recall, and mostly with low precision. 😉
October 3, 2023 at 7:31 PM
Habe ein paar geschickt. Für gute Leute.
October 2, 2023 at 6:12 PM
On the other hand, the Band ‘The Slackers’ can be highly recommended 👉 https://open.spotify.com/artist/2QRPuDfRA9LtoeGFaMikmK?si=vorgyEpoSUCVao4PZw5MHQ
The Slackers
Artist · 96.2K monthly listeners.
open.spotify.com
August 8, 2023 at 7:31 PM
The context of this news story is more interesting than the presence of violence in major religious scripture. It‘s an activist response to book banning legislature.
And yes, my catholic school & reading the bible introduced me to violence before movies and other books and video games. But hey… 🤷‍♂️
June 4, 2023 at 10:24 AM