Hiroshi Wayama
mushoku-swe.bsky.social
Hiroshi Wayama
@mushoku-swe.bsky.social
Software engineer. ML & data science.
Building LegalWin. 20 yrs of indie dev (2 exits).
PhD student in recommender systems × graph theory.
Ex-semiconductor / ex-systems engineer.
Posting in Japanese & English.
Reposted by Hiroshi Wayama
That's just the tip of the iceberg. More is coming.

- Beyond records - mail.openjdk.org/pipermail/am...
- Null-restricted types - mail.openjdk.org/pipermail/va...
- Type classes - mail.openjdk.org/pipermail/va...
mail.openjdk.org
January 18, 2026 at 1:42 PM
顧客生涯価値(LTV)のモデリングで階層ベイズを使うと、全体平均と個別顧客の傾向を同時に推定できる。マーケティング予算配分の最適化に直結するし、不確実性も区間推定可能。RFM分析だけでは見逃す「この人は実はポテンシャル高いかも」というシグナルを拾えるのが、ベイズモデルの醍醐味だろうか…
January 19, 2026 at 2:43 AM
When coding ML algorithms in Python, I love how it’s so lightweight and doesn’t need strict types. But when building a backend in Java or Rust, I can’t imagine releasing without types. Guess it’s all about knowing each language’s strengths and using them where they fit best…
January 18, 2026 at 6:15 AM
Pythonで機械学習のアルゴリズムを実装していると型がなく、コード量も少なくていいなぁと思う一方、JavaやRustでバックエンドを実装すると、型がないと怖くてリリースできないと思ってしまう。結局は各言語の長所短所を理解し、適材適所が一番ということか…AIがコードを書く時代は分からないが…
January 18, 2026 at 6:15 AM
Newton-Raphson updates using a 2nd-order (Hessian) approximation, while gradient methods rely only on 1st-order info. When the Hessian is positive definite locally, Newton converges faster—but with higher cost and instability risks. Now it’s clear why quasi-Newton is used in practice.
January 16, 2026 at 1:42 PM
Newton-Raphsonは2階微分を使った2次近似で更新するのに対し、勾配法は1階情報のみ。局所的に2階微分が正定値ならNewtonの方が高速収束するが、計算コストや不安定さもある。準ニュートン法が実務で使われる理由がよく分かる。(実務上ではほぼ準ニュートン法を利用するが…)
January 16, 2026 at 1:42 PM
少し前だが、SciPy 1.15で scipy.differentiate が追加されたらしい。ブラックボックス関数の数値微分を高精度に扱えるのは、地味だけど最適化や感度解析でかなり便利そう。普段optimizeやstats触ってる身としては、微分周りがここまで整備されるとプロトタイピングが一段楽になりそう(多分)。
January 16, 2026 at 2:27 AM
Looking at the latest updates for Postgres 18, the major version upgrade speed-up thanks to pg_upgrade improvements and better stats handling really stands out. With less downtime now, there’s yet another reason to pick PostgreSQL for large-scale operations…
January 15, 2026 at 3:28 AM
Postgres 18の最新情報を見ると、pg_upgrade周りの改善や統計情報の扱い強化でメジャーバージョンのアップグレードが大幅に速くなったのが印象的。ダウンタイムを最小限に抑えられるようになり、大規模運用でPostgreSQLを選ぶ理由がまた一つ増えた気がするが…
January 15, 2026 at 3:28 AM
Looks like NumPy 2.4 made more progress on free-threaded Python (PEP 703)! Still experimental, but seeing a future where we can run numerical computations without the GIL is huge. The Python ecosystem getting serious about true parallelism is awesome—can’t wait to see fewer bottlenecks.
January 15, 2026 at 3:27 AM
NumPy 2.4でfree-threaded Python(PEP 703)対応がまた一歩進んだらしい。まだ実験段階とはいえ、GILなしで数値計算を並列化できる未来が見えてきたのは大きい。Pythonエコシステムが本気で並列化に向き合っているのは素直にすごいし、ボトルネックが減るのは楽しみ。
January 15, 2026 at 3:27 AM
Python’s real strength is how versatile it is—from data science to web dev to automation. Being able to do everything in one language makes learning super efficient. You can build an ML model, turn it into an API with Flask, and deploy—all in Python. Perfect fit for modern dev.
January 14, 2026 at 2:08 PM
Pythonの強みは、データサイエンスから Web開発、自動化scriptまで幅広く使えることか…経験的に、一つの言語で複数の用途をカバーできるのは学習効率が高い。機械学習モデルを作って、それをFlaskでAPI化して、デプロイまで全部Pythonで完結できる。この汎用性が現代の開発スタイルに適していそう。
January 14, 2026 at 2:08 PM
The inverse of a Gaussian’s covariance matrix (precision matrix) shows up a lot in Bayesian estimation. But with high dimensions, the cost explodes, so people assume sparsity or use approximations. It’s fascinating how computation limits shape models… I really need to study this more.
January 13, 2026 at 3:44 AM
ガウス分布の共分散行列の逆行列(精度行列)は、ベイズ推定で頻出する。しかし次元が大きいと計算コストが膨大になるため、スパース性を仮定したり、近似手法を使う。計算量の制約が統計モデルの設計に影響を与える点が、理論と実践の接点として興味深いが、私は理解が浅くもっと勉強する必要あり…
January 13, 2026 at 3:44 AM
ガウス分布の共分散行列の逆行列(精度行列)は、ベイズ推定で頻出する。しかし次元が大きいと計算コストが膨大になるため、スパース性を仮定したり、近似手法を使う。計算量の制約が統計モデルの設計に影響を与える点が、理論と実践の接点として興味深いが、私は理解が浅くもっと勉強する必要あり…
January 13, 2026 at 3:38 AM
Java 21's Virtual Threads (Project Loom) hit me hard — the impact is huge. Lightweight threads let you run way more concurrent tasks while avoiding async complexity, aiming for high throughput. Feels like Java just leveled up in practicality (still getting the hang of it though…).
January 10, 2026 at 10:49 AM
Java 21のVirtual Threads(Project Loom)、個人的にかなりインパクトあるなと感じている。軽量スレッドにより従来よりはるかに多くの並行処理が可能になり、非同期の複雑さを避けつつ高スループットを狙えるのは大きい。Javaの実用性がさらに広がった気がする(まだ使いこなせていないが…)
January 10, 2026 at 10:49 AM
In marketing science, the Negative Binomial Distribution (NBD) used for modeling purchase frequency is a Poisson-Gamma mixture. It assumes individual differences in buying rates, which naturally leads to this form. It fits real data well and I often use it in marketing—super practical!
January 10, 2026 at 10:49 AM
マーケティングサイエンスで購買回数モデリングに使われる負の二項分布(NBD)は、ポアソン分布にガンマ分布を混ぜた混合分布として計算される。個人ごとに購買率が異なると仮定し、自然にこの形が導出。実務でもデータにフィットしやすく、個人的にも様々な場面でマーケティングに利用し、とても便利
January 10, 2026 at 10:49 AM
LightGBMは学習速度とメモリ効率に優れている印象。Leaf-wise成長により、Level-wiseな手法より少ない木数で性能が出やすい。一方で過学習しやすく、max_depthやnum_leavesの調整は重要。カテゴリ変数が多い場合はCatBoostが扱いやすく、用途で使い分けるのが実用的だろうか…(最近触っていないが…)
January 9, 2026 at 2:35 AM
PostgreSQLでpgvectorが事実上の標準として使われ始めているのは、個人的に大きな転換点だと思う。リレーショナルな「論理」の世界に、ベクトル類似度という「距離空間」の概念が加わり、RAGなどの実装がかなりシンプルになる。厳密さと曖昧さを一つの系で扱えるのは、とても興味深い…DBは奥が深い…
January 8, 2026 at 10:33 AM
You can’t really understand NNs without linear algebra. Tracing backprop math shows it’s all about matrix derivatives and the chain rule. When I learned vanishing gradients relate to eigenvalues, I realized how vital math basics are. Feels like the essence hides in what libraries obscure…
January 7, 2026 at 9:03 AM
線形代数なしにNNは理解できない。逆伝播法の数式を追うと、結局は行列の微分とチェーンルールの応用だと分かる。個人的には、勾配消失問題が固有値の大きさと関係していると知ったとき、数学的基礎の重要性を再認識した。ライブラリが隠蔽する部分にこそ本質があるような気がするが、果たして…
January 7, 2026 at 9:03 AM
The latest Python updates are huge — the evolution of free-threaded builds is easing GIL limits, making real multithreaded parallelism practical. There’s a trade-off with single-thread performance, but by 2026 more CPU-bound tasks can use multiple cores. I’m honestly thrilled about this.
January 7, 2026 at 2:59 AM