@slate42.bsky.social
maths, data science, neuro and bikes
@rstockm.bsky.social Kennst du das paper hier schon: arxiv.org/pdf/2401.118... ? Die Behaptung ist, dass alle LLMs halluzinieren müssen. Darin ist auch ein Beispiel wie man prompts generieren kann an denen angeblich alle LLMs scheitern, war aber vor den o1 Modellen…
November 28, 2024 at 8:09 AM