También pongo boberías en español
The loss is:
max(0, |a_1 - a_2| - 0.9 * |a_1 - b|)
The loss is:
max(0, |a_1 - a_2| - 0.9 * |a_1 - b|)
es.wikipedia.org/wiki/Hora_de...
es.wikipedia.org/wiki/Hora_de...
es.wikipedia.org/wiki/Huelga_...
es.wikipedia.org/wiki/Huelga_...
En el mediterráneo tenemos una bomba metereológica en permanente ebullición.
La solución a largo plazo sería el decrecimiento, a corto, no votar a negacionistas.
Esto de @juanbordera.bsky.social
En el mediterráneo tenemos una bomba metereológica en permanente ebullición.
La solución a largo plazo sería el decrecimiento, a corto, no votar a negacionistas.
Esto de @juanbordera.bsky.social
- Punctuation or not
- Letter or number
- Upper case flag
- Tilde modifier
- Hat modifier
- ...
- Punctuation or not
- Letter or number
- Upper case flag
- Tilde modifier
- Hat modifier
- ...
A pesar de las zancadillas, el viaje a Bluesky y Mastodon ha comenzado gracias a la iniciativa HelloQuitteX, que permite a los usuarios de X conservar sus comunidades de seguidores en nuevos puertos más sanos.
(La herramienta es gratuita.)
Más info: ctxt.es/es/20250101/...
A pesar de las zancadillas, el viaje a Bluesky y Mastodon ha comenzado gracias a la iniciativa HelloQuitteX, que permite a los usuarios de X conservar sus comunidades de seguidores en nuevos puertos más sanos.
(La herramienta es gratuita.)
Más info: ctxt.es/es/20250101/...
· Cross-entropy loss often improves by scaling weights.
· When softmax saturates, some gradients reach 0 and learning stops.
· Weight decay helps, but via side-effects.
· They propose a +stable softmax and orthogonal gradient that fix this!
arxiv.org/abs/2501.04697
· Cross-entropy loss often improves by scaling weights.
· When softmax saturates, some gradients reach 0 and learning stops.
· Weight decay helps, but via side-effects.
· They propose a +stable softmax and orthogonal gradient that fix this!
arxiv.org/abs/2501.04697
🐙 github.com/dcasbol/biol...
🐙 github.com/dcasbol/biol...
• All is about LLMs now
• Great interest + feedback from our LTM Benchmark poster 🥳
• Causality is hot
• xLSTM looks VERY promising
• Flow matching models 👌🏼
• Collective Intelligence is not dead!
• All is about LLMs now
• Great interest + feedback from our LTM Benchmark poster 🥳
• Causality is hot
• xLSTM looks VERY promising
• Flow matching models 👌🏼
• Collective Intelligence is not dead!
-- Bob Cabana (Retired NASA astronaut)
Me: spaces or tabs?
-- Bob Cabana (Retired NASA astronaut)
Me: spaces or tabs?