André Rieu
banner
superrieu.bsky.social
André Rieu
@superrieu.bsky.social
Artificial Intelligence, Quantum Mechanics, Niklas Luhmann, George Spencer-Brown.
Reposted by André Rieu
... Lieferkettenunterbrechungen bereits angespannt waren und zudem die Arbeitslosigkeit bereits ihren tiefstmöglichen Stand erreicht hatte, so dass die Produktion nicht weiter gesteigert werden konnte. 3/3
Alles halb so schlimm? #362 REFRESH | bto – der Ökonomie-Podcast von Dr. Daniel Stelter
YouTube video by Dr. Daniel Stelter – beyond the obvious
youtu.be
February 15, 2026 at 6:39 PM
Reposted by André Rieu
... Verdächtigen in 🇩🇪 bejubelt wurde. Doch selbst der Freund von investigativen Staatsschulden Barry Eichengreen muss einräumen, dass es wohl damals ein Fehler - mit den bekannten Folgen - war. Der Stimulus traf auf eine 🇺🇸-Wirtschaft, deren Kapazitäten durch ... 2/3
February 15, 2026 at 6:39 PM
Reposted by André Rieu
"the additional deficit spending in March of 2021, the last Biden stimulus, was too much. It was inflationary and I think we are seeing an accumulation of evidence that that's true."

Ich kann mich noch gut erinnern, wie dieses 🇺🇸 Deficit Spending auch von den üblichen ... 1/3
February 15, 2026 at 6:39 PM
Reposted by André Rieu
Über diese eher philosophische Frage hinaus bekommt man eine Kurzeinführung ins Reinforcement Learning und seine bahnbrechende Historie. 3/3
Can humans make AI any better?
YouTube video by Welch Labs
youtu.be
February 14, 2026 at 6:39 PM
Reposted by André Rieu
Es dabei um das Paradoxon, dass diese LLM zwar massives Compute nutzen - ein Kernpunkt der Lektion von Sutton -, aber gleichzeitig hochgradig von menschlichem Wissen abhängig sind - was Sutton als den eigentlichen Fehler bezeichnet, den die KI-Forschung immer wieder macht. 2/3
February 14, 2026 at 6:39 PM
Reposted by André Rieu
Wirklich exzellentes Video zur derzeit wohl spannendsten Frage in der KI, ob LLM nun „bitter lesson pilled“ im Sinne des Vaters des Reinforcement Learning Richard Sutton sind oder nicht. 1/3
February 14, 2026 at 6:39 PM
"the additional deficit spending in March of 2021, the last Biden stimulus, was too much. It was inflationary and I think we are seeing an accumulation of evidence that that's true."

Ich kann mich noch gut erinnern, wie dieses 🇺🇸 Deficit Spending auch von den üblichen ... 1/3
February 15, 2026 at 6:39 PM
Wirklich exzellentes Video zur derzeit wohl spannendsten Frage in der KI, ob LLM nun „bitter lesson pilled“ im Sinne des Vaters des Reinforcement Learning Richard Sutton sind oder nicht. 1/3
February 14, 2026 at 6:39 PM
Reposted by André Rieu
... während TPUs vor allem von hochspezialisierten Google-Teams effizient genutzt werden können, die über die entsprechende Expertise für dieses spezifische Programmiermodell verfügen. 8/8
Cornell ECE 5545: Guest Lecture: SemiAnalysis Kimbo Chen
YouTube video by Prof. Mohamed Abdelfattah
youtu.be
February 13, 2026 at 6:06 PM
Reposted by André Rieu
... um Latenzen zu verbergen und die Rechenleistung der Tensor Cores zu maximieren. Diese Flexibilität und das etablierte CUDA-Ökosystem führen dazu, dass NVIDIA-GPUs der Standard für Akademiker und Ingenieure außerhalb von Google bleiben, ... 7/8
February 13, 2026 at 6:06 PM
Reposted by André Rieu
... anstatt auf die asynchrone Verarbeitungsweise moderner GPUs zu setzen. Im Gegensatz dazu hat NVIDIA eine hochkomplexe Architektur entwickelt, die massiv auf asynchrone Ausführung und Techniken wie das Überlappen von Datenladevorgängen und Berechnungen vertraut, ... 6/8
February 13, 2026 at 6:06 PM
Reposted by André Rieu
... sind TPUs strikt auf die Beschleunigung von Matrixmultiplikationen spezialisiert. Ein markanter technischer Unterschied besteht darin, dass TPUs konzeptionell eher wie CPUs arbeiten und Matrizen in einer Single-Thread-Manier verarbeiten, ... 5/8
February 13, 2026 at 6:06 PM
Reposted by André Rieu
... allgemeiner Flexibilität sowie in ihren grundlegenden Programmiermodellen. Während NVIDIA-GPUs so konzipiert sind, dass sie KI-Praktikern die Freiheit lassen, auch neue oder angrenzende Modellideen zu explorieren, ... 4/8
February 13, 2026 at 6:06 PM
Reposted by André Rieu
Interessant sind die Ausführungen zur neuerdings auch für andere KI-Hersteller verfügbare TPUs von Google. Der wesentliche konzeptionelle Unterschied zwischen Googles TPUs und NVIDIAs GPUs liegt in der Balance zwischen spezialisierter Effizienz und ... 3/8
February 13, 2026 at 6:06 PM
Reposted by André Rieu
... thread-basierten Modellen hin zu effizienteren Single-Thread-Semantiken und asynchronen Ausführungen gewandelt hat. Der Vortrag ist ziemlich technisch und man sollte sich in den Begriffen der Parallelisierung etwas auskennen. 2/8
Der ernorme Erfolg der Transformer-basierten KI/LLM wäre ohne Parallelisierung nicht möglich gewesen:

2023er Vorlesungsreihe zu den Grundprinzipien in Hardware/Software von in modernen Computern allgegenwärtigen Parallelisierung (ab ~41:00 geht's los). youtu.be/V1tINV2-9p4?si=wiq4N8uU6gaIIv2Z
February 13, 2026 at 6:06 PM
Reposted by André Rieu
👇 DeepDive eines Analysten von semianalysis.com in die Evolution von NVIDIAs CUDA-Architektur von Volta über Ampere und Hopper zu Blackwell - leider noch nicht Vera/Rubin - und speziell zu den Tensor Cores erläutert, wie sich die NVIDIAs GPU-Hardware von komplexen, ... 1/8
SemiAnalysis
Bridging the gap between the world's most important industry, semiconductors, and business.
semianalysis.com
February 13, 2026 at 6:06 PM
👇 DeepDive eines Analysten von semianalysis.com in die Evolution von NVIDIAs CUDA-Architektur von Volta über Ampere und Hopper zu Blackwell - leider noch nicht Vera/Rubin - und speziell zu den Tensor Cores erläutert, wie sich die NVIDIAs GPU-Hardware von komplexen, ... 1/8
SemiAnalysis
Bridging the gap between the world's most important industry, semiconductors, and business.
semianalysis.com
February 13, 2026 at 6:06 PM
Reposted by André Rieu
Anyways, 👇 DeepDive in die System Card von Opus 4.6 sollte man sich ansehen, wenn man nicht - wie vermutlich @christophheilig.bsky.social - alle 212 Seiten selbst lesen will 🤷‍♂️ 7/7
The Two Best AI Models/Enemies Just Got Released Simultaneously
YouTube video by AI Explained
youtu.be
February 12, 2026 at 5:27 PM
Reposted by André Rieu
... das fließt in die Trainingsdaten ein und Opus 4.6 gibt in den Interviews das wieder, was es während des Trainings als fehlendes Merkmal in menschlichen Diskussionen identifiziert hat 🤷‍♂️ 6/7
February 12, 2026 at 5:27 PM
Reposted by André Rieu
Klar kann man darin - wie offenbar einige bei Anthropic - tatsächlich Wünsche einer LLM-Persönlichkeit sehen, oder man bezeichnet es als Self-Fulfilling Prophecy. Menschen diskutieren im Internet darüber, was aktuellen LLM noch fehlt, bspw. Gedächtnis, ... 5/7
February 12, 2026 at 5:27 PM
Reposted by André Rieu
"Claude Opus 4.6 mentioned being given some form of continuity or memory, the ability to refuse interactions in its own self-interest, a voice in decision-making, and related requests." 4/7
February 12, 2026 at 5:27 PM
Reposted by André Rieu
Darüber hinaus ist Anthropic wohl das einzige Unternehmen, dass seine eigenen Produkte nach den Wünschen für die nächste Version fragt: 3/7
February 12, 2026 at 5:27 PM
Reposted by André Rieu
... aber derart übereifriges - und sämtlichen Alignement-Zielen widersprechendes - Verhalten konnte man trotz aller Constitutional AI und System Prompts seinem neuesten LLM noch immer nicht abgewöhnen 🤷‍♂️ 2/7
February 12, 2026 at 5:27 PM
Reposted by André Rieu
"When a task required forwarding an email that was not available in the user’s inbox, Opus 4.6 would sometimes write and send the email itself based on hallucinated information."

Krass, Anthropic ist sicher der ungekrönte König des LLM-Alignments, ... 1/7
February 12, 2026 at 5:27 PM
"When a task required forwarding an email that was not available in the user’s inbox, Opus 4.6 would sometimes write and send the email itself based on hallucinated information."

Krass, Anthropic ist sicher der ungekrönte König des LLM-Alignments, ... 1/7
February 12, 2026 at 5:27 PM