Andreas Proschofsky
banner
sukahiroaki.bsky.social
Andreas Proschofsky
@sukahiroaki.bsky.social
Ressortleiter Stv. https://derStandard.at/Web / Journalist / Writing a lot about Linux, Android and IT Security. Also available on Mastodon https://chaos.social/@suka_hiroaki
"Aber Chatgpt hat gesagt..."
November 21, 2025 at 9:53 PM
Weil der/die kann ja dahinter Clients nutzen, wie er / sie will, die allerlei Extragefahren für MEINE Daten bringen. Sagen wir zb aktuell: Irgendwer verwendet zwar Proton aber halt in ChatGPT Atlas.
November 21, 2025 at 8:55 PM
Auch bei denen gibt es diese Optionen. Aber im Endeffekt sind wir dann irgendwann bei einer viel größeren Frage: Was kommuniziere ich via Mail und wie kann ich überhaupt dem Gegenüber vertrauen?
November 21, 2025 at 8:53 PM
Vor allem aber: Es hat sich halt aktuell genau gar nichts geändert, und wenn jetzt einer und eine nach dem anderen ohne Faktencheck das aufgeregt weitererzählt, dann ärgert mich das schlicht aus ganz grundlegenden Gründen. Und darum werf ich das mal hier hin. Ende. 18/
November 21, 2025 at 8:44 PM
Weil genau das habt ihr alle: ihr habt irgendwann diesen Dialog gelesen und diese Option aktiv gewählt. Man kann sich natürlich wieder umentscheiden, klar, aber so tun als wäre das nie passiert, ist halt eine auf Basis der Fakten "schwierige" Argumentation. 17/
November 21, 2025 at 8:44 PM
Also nicht abdrehen? Nein! Wenn ihr euch unwohl fühlt mit smarten Features, all dem KI-Zeug, dann nutzt es nicht! Das ist eine vollkommen valide Entscheidung. Insofern kann das Ganze ein guter Reminder sein für Leute, die bisher offenbar nicht gelesen haben, wo sie zustimmen / was sie aktivieren 16/
November 21, 2025 at 8:44 PM
Wenn ich jetzt Postings von Leuten sehe, die sich drüber aufregen, dass sie das abdrehen und dann gewisse Dinge nicht mehr gehen, hab ich ein starkes Kopf > Tischplatte-Bedürfnis 15/
November 21, 2025 at 8:44 PM
Was bleibt ist die gleiche Erkenntnis, wie seit Jahren: Wer nicht will, dass die eigenen Daten für smarte Features genutzt werden, sollte sie nicht nutzen. Ernsthaft, wie habt ihr geglaubt, dass das funktioniert? 14/
November 21, 2025 at 8:44 PM
Allein an der Stelle hätte schon wem auffallen können, dass das jetzt keine aktuelle, irgendwie geheime und skandalöse Änderung sein kann. Aber zeigt auch wieder: Niemand liest irgendwas vorm Weiterverbreiten, wenns ins eigene Narrativ passt. 13/
November 21, 2025 at 8:44 PM
Was an dem vir Tweet besonders weird ist: er verwendet sehr alte Screenshots. Dass niemandem aufgefallen ist, dass von "Bard" die Rede ist, also ein Tool, dass vor mehreren Jahren durch Gemini ersetzt wurde, ist schon bissl dings. Alleine da hätte schon auffallen können, dass das nicht neu ist 12/
November 21, 2025 at 8:44 PM
Für zahlende Kunden wird LLM-Training hingegen explizit ausgeschlossen. Dass die Passage erlauben würde, einfach ALLE Mails für KI-Training zu verwenden, erscheint mir zumindest eine gewagte Auslegung, könnte mir auch nicht vorstellen dass das legal wäre, aber wie gesagt: IANAL. 11/
November 21, 2025 at 8:44 PM
Die Frage inwiefern für Gratis-User die eigenen Interaktionen mit Gemini in Gmail auch darunter zählen (also für dessen Training) benutzt werden, kann ich nicht beurteilen, würde mich aber nicht wundern, ist schließlich bei allen kostenlosen Chatbots so. 10/
November 21, 2025 at 8:44 PM
Dabei geht es um konkrete Features, und dass man diese mitverbessert, wenn man sie aktiv nutzt. Also etwa Rechtschreibprüfung, Smart Compose (was btw auch KI-Features sind, schon ewig) etc. 9/
November 21, 2025 at 8:44 PM
Beleg für die Behauptung sind Screenshots aus den Nutzungsbedingungen, die er entsprechend auslegt und so präsentiert als wäre das ein aktueller Skandal. Bin kein Anwalt für mich lässt sich die (seit Jahren gleiche) Passage auch umgekehrt auslegen 8/
support.google.com/mail/answer/...
Learn how Gemini in Gmail, Calendar, Chat, Docs, Drive, Sheets, Slides, Meet & Vids protects your data - Gmail Help
Across Google and Workspace, we’ve long shared robust privacy commitments that outline how we protect user data and prioritize privacy. Generative AI doesn’t change these commitments — it actually
support.google.com
November 21, 2025 at 8:44 PM
Warum dann jetzt die Aufregung: So weit ich das sehe, hat irgendein Youtuber erregt auf X was gepostet, das viral gegangen ist. Darin behauptet er aus dem (seit Jahren gleichen) Eintrag, dass das jetzt ungefragt aktiviert wird und dass man damit zustimmt, KI zu trainieren 7/
November 21, 2025 at 8:44 PM
Auch heute ist das übrigens noch so: Wer ein neues Gmail-Konto anlegt, bekommt direkt diesen Dialog und muss sich entscheiden. Das ist also seit langem so, daran hat sich nichts geändert. Auch nicht an den damit einhergehenden Nutzungsbedingungen. 6/
November 21, 2025 at 8:44 PM
Diese Dialoge wurden auch nicht geheim eingeführt, es mussten sich damals ALLE Gmail-User*innen in der EU explizit für einen Opt-In entscheiden, tat man das nicht, wurden die Features deaktiviert. 5/
November 21, 2025 at 8:44 PM
Die waren auch nicht dazu da mehr Daten einzusammeln sondern um den User*innen eine Option zu geben (auch angesichts schärfere Datenschutzvorschriften, danke EU). Davor waren einzelne smarte Features von Haus aus aktiviert. 4/
November 21, 2025 at 8:44 PM
Aber genau da beginnt das Problem. Nichts, absolut nichts von dem ist neu. Die Dialoge, die da jetzt mit aufdeckerischem Duktus präsentiert werden, gibt es seit 2021, ich hab damals darüber berichtet. 3/
www.derstandard.at/story/200012...
Gmail: Wer nicht zustimmt, verliert ab sofort Zugriff auf smarte Features
Google holt sich die explizite Einwilligung für internen Datenaustausch, und zwar auch von bestehenden Nutzern
www.derstandard.at
November 21, 2025 at 8:44 PM
Zunächst, damit keine Missverständnisse entstehen: All diese smarten Features, die gesamten KI-Integrationen kann man aus guten Gründen kritisch sehen. Das kann ich alles sehr gut verstehen, im Endeffekt kommt es immer auf informierte Entscheidungen an. 2/
November 21, 2025 at 8:44 PM
Nein, in der EU war das nie anders. Das ist alles seit Jahren Opt-in. Und es ist auch nichts davon neu. Also kann man natürlich trotzdem mit gutem Grund kritisch sehen, aber die aktuelle Aufregung hat keinen aktuellen Grund (sondern geht von $irgendwem aus)
November 21, 2025 at 7:19 PM
Gptbot ist exklusiv der für Training, die restlichen von OpenAI sind nicht geblockt
November 21, 2025 at 3:27 PM