Tootfinder

Opt-in global Mastodon full text search. Join the index!

No exact results. Similar results found.
@vosje62@mastodon.nl
2026-02-18 12:46:20

Russia’s economy has entered the death zone - Alexandra Prokopenko - Economist
#Ukraine

@roelgrif@mstdn.social
2026-03-18 16:00:46

NIVEL weekrapportage week 11.
De griepepidemie is voorbij. We kunnen de balans opmaken en zien dat we, ondanks de opkomst van H3N2, toch een minder heftige epidemie hebben gehad dan een jaar geleden.
Volgens NIVEL is er ook sprake van een kortere epidemie, maar dat is m.i. een beetje appels en peren vergelijken, omdat ze de epidemie nu over verklaren o.b.v. een andere indicator dan vorig jaar. Aan onderstaand plaatje kun je dat i.i.g. niet zien.

Uitgelicht: Duidelijk minder mensen met acute luchtweginfecties, jaarlijkse griepepidemie voorbij
Wat valt op in week 11:

Het aantal mensen dat bij de huisarts komt met een acute luchtweginfectie (ARI) is in week 11 verder gedaald ten opzichte van de week ervoor. Het aantal mensen dat met een ARI naar de huisarts gaat ligt voor de tweede week op rij onder de grenswaarde van 291 per 100.000 inwoners, de waarde die als verhoogde ARI activiteit wordt beschouwd.
In neus- en keelwatjes die huisarts…
@maxheadroom@hub.uckermark.social
2026-02-17 05:52:20

Nur noch 11 Tage bis zum 1. digital independence day in Templin/Uckermark
#DIDAY

Digitaler Fortschrittsanzeiger im Stil von macOS classic mit "DIDay Uckermark Templin" und verbleibender Zeit: 11 Tage, 17 Stunden. Minimalistisches Design.
@haayman@todon.nl
2026-03-16 05:10:23

"Daarna sprak je een zin uit die me diep raakte: “Alles waar ik in geloofde, is mislukt.”
Je vertelde over de antikernwapendemonstraties begin jaren tachtig, je lidmaatschap van vredesorganisaties in Israël/Palestina, je werk als oprichter van de sectie Vrouwenstudies aan de UvA en al je waarschuwingen voor racisme en fascisme als journalist."

@v_i_o_l_a@openbiblio.social
2026-02-15 17:45:34

"Auf Energydrinks durch die Nacht"
spiegel.de/start/tu-berlin-ein

@paul@social.van.buu.re
2026-02-17 09:56:37

RE: paulvanbuuren.nl/wat-als-nasrd
Ik blijk de laatste tijd nogal in een theater te zitten. Vorige week zagen we “Wat als” en ik zou willen dat iedereen die voorstelling gaat zien.

@seemannsmission@c.im
2026-04-17 15:06:57

Sinn für:
- interkulturelles
- internationales
- rechtliche Fragen
- Fragen zur Struktur
- maritimes
- Menschen?
Stelle frei:
Projektassistenz international (d/w/m)
Vollzeit. Auf 2 Jahre befristet.
seemannsmission.org/gesucht-pr

@UrbanNature@nerdculture.de
2026-04-15 19:19:15

Tipp: Die Stiftung Naturschutz Berlin bietet am 23.4.26 von 16-18 Uhr einen kostenlosen Online-Vortrag zum Thema Libellen an 🧚‍♂️
Hier anmelden:
umweltkalender-berlin.de/angeb

@vosje62@mastodon.nl
2026-04-17 14:19:27

/2
In het verleden bestelde ik de aardappelen die ik verbouwde wel bij Vreeken's Zaden in Dordrecht*, net als ander zaaigoed.
Waar de supermarkt een heel beperkt assortiment laat zien kwam Vreeken toen ik eens telde tot 100 catalogus items*.
Dat geldt nog veel meer voor zaden.
Een deel wordt door enkele heel enthousiaste telers in stand gehouden.
* vreeken.nl/
** aantal dubbelingen door 'bio/niet bio/...'
/3

@aredridel@kolektiva.social
2026-04-14 14:22:42

So to follow up on this, I've caught it in action. Models, when quantized a bit, just do a bit more poorly with short contexts. Even going from f32 (as trained) to bf16 (as usually run) to q8 tends to do okay for "normal" context windows. And q4 you start feeling like "this model is a little stupid and gets stuck sometimes” (it is! It's just that it's still mostly careening about in the space of "plausible" most of the time. Not good guesswork, but still in the zone). With long contexts, the probability of parameters collapsing to zero are higher, so the more context the more likelihood you are to see brokenness.
And then at Q2 (2 bits per parameter) or Q1, the model falls apart completely. Parameters collapse to zero easily. You start seeing "all work and no play makes jack a dull boy” sorts of behavior, with intense and unscrutinized repetition, followed by a hard stop when it just stops working.
And quantization is a parameter that a model vendor can turn relatively easily. (they have to regenerate the model from the base with more quantization, but it's a data transformation on the order of running a terabyte through a straightforward and fast process, not like training).
If you have 1000 customers and enough equipment to handle the requests of 700, going from bf16 to q8 is a no-brainer. Suddenly you can handle the load and have a little spare capacity. They get worse results, probably pay the same per token (or they're on a subscription that hides the cost anyway so you are even freer to make trade-offs. There's a reason that subscription products are kinda poorly described.)
It's also possible for them to vary this across a day: use models during quieter periods? Maybe you get an instance running a bf16 quantization. If you use it during a high use period? You get a Q4 model.
Or intelligent routing is possible. No idea if anyone is doing this, but if they monitor what you send a bit, and you generally shoot for an expensive model for simple requests? They could totally substitute a highly quantized version of the model to answer the question.
There are •so many tricks• that can be pulled here. Some of them very reasonable to make, some of them treading into outright misleading or fraudulent, and it's weirdly hard to draw the line between them.