Atsushi Eno
banner
atsushieno.bsky.social
Atsushi Eno
@atsushieno.bsky.social
200 followers 150 following 2.4K posts
M3-2025秋 E-04b https://fedibird.com/@atsushieno https://g0v.social/@atsushieno https://github.com/atsushieno
Posts Media Videos Starter Packs
今回のM3、自分がよく聴いてる範囲の人たちみんな新作作ってて、どうした…グランドクロスが訪れるのか…?? ってなってる
(眺めに行きたいけどソロ出展者だし買い物に行く暇はあまり無いのじゃ…!)
IMidiMapping2もWaylandサポートもコミュニティの反応は喧々囂々といった印象で、面白いのでちょっと解説を書きたいと思っています(日曜のM3が落ち着いたら!)
"VST3 is now open source" って書かれている記事を見て「いや前々からGPLv3でオープンソースだったやん。そんなん言い出したの誰やねん…あ、最初のSteinberg公式の告知やわ…」ってなった
uapmd-serviceにGUIサポートを取り付けたので音源を起動した後その場でプリセットを選択できるようになった。汎用のMIDIプレイヤーで音源として選択すればOne Synth Challengeみたいなふいんきの楽曲は再生できるw
これがプラグインのAPI経由で公開されていればMIDIのプログラムチェンジに割り当てられてついでにMIDI-CI経由でProgramListも取れれば概ねGUI不要でも使い物になるんだけど、ほとんど誰もプリセットAPI対応していないのである。まあファクトリープリセットとユーザープリセットの関係はもうちょっとAPI側が交通整理してくれないとだな。
今年は5月コペンハーゲン5泊、6月リヨン+スイス各地8泊、11月ブリストル6泊とめっさ渡欧があって、3件の航空券・鉄道・宿・食費を全部合わせたら7桁が視界に入ってくるくらいはかかってるな…(なお台湾1ヶ月は今回は食費を除けば10万もかかってない)
ぉぉマジで…!
GPLv3にしているのはVST3から人が離れる理由にしかなっていなかったので、これはとても良い変更。CLAPの競争圧が効いていそう。技術的方向性とは無関係にライセンス的に問題のないほうに移行されてしまうわけだし。

しかし今ずっと作ってるホスト、「Travestyで作ってるからMITライセンスで公開するよ」がウリなんだけど、Travestyで作る必要がなくなったw (JUCEがMITライセンスになる日は来ないと思うのでプロジェクト自体は続く)
LV2もまあまあいける。JUCEのプラグインはLV2 Instance Controlとか使っててまあまあ邪道なんだなという学びを得た。まあしかしGUIサポートは鬼門っぽいな。APIをどこまで統一できるのか、いろいろ検証の余地がありそう。ただM3の展示には間に合わない。
先週「来週Moohanが発売される前提で韓国行くぜ! 出なかったら完全に無駄足!」みたいな人に会ったけど、無事出たみたいだなw blog.google/products/and...
Introducing Galaxy XR, the first Android XR headset
Galaxy XR is now available today. Here’s what to expect.
blog.google
「女性が首相になれる」か否かは日本の現代的課題ではない。土井たか子が首相になったかもしれない時代に「女性が首相になるなんてけしからん」みたいな人間はいなかったわけで、20世紀にはとっくに解消していたレベルの問題
UIについてはVST3もAUもCLAPも基本的には割と動いてくれているので(動かないやつも多いが)、明日はいよいよLV2に取り掛かるか…アレはUIとのやり取りをAtomでやることになるはずのものだから面倒そうだよなあ。まあAIにやらせてお茶を濁したい
あのプラットフォームではあのフォーマットのあのプラグインのUIが出ないけどあのプラットフォームでは動く…みたいな問題がわらわらと出てきて、これ絶対自分でやりたくないやつだ…ってなってる。ホストのUIがImGuiなので多分そのバックエンドによって動いたり動かなかったりもあるんだよな…
AUサポートも実装させてみたけど思いのほか動くものが多い
そういうのもコントローラーの独自テイストですよね(そうじゃない)
CLAPのAPIをもとに共通APIを構築したのにCLAPのGUIサポートで割と苦労したので、こりゃVST3サポートとかも苦労するかな…と思いながら試しにClaudeに実装させてみたら、いろいろ足りないインターフェースを追加したりはしたものの、実装作業は1セッションだけで30分もかからずにだいぶいろいろなプラグインUIが出るようになって拍子抜けしている。CLAPのほうは実装の実績が少なくプラグイン側もまともにできてないことがありそうだ。
このADSR/エンベロープジェネレーター新しいな…! (
こうじゃ
Reposted by Atsushi Eno
ここ最近のクマの異常なまでの人里への出没、この数年で全く見聞きすることのなくなった森ガール、これらの二つの点をつなぐことで浮かび上がってくる驚愕の真実とは
Reposted by Atsushi Eno
前にBlueskyでも引用した話ですが、「自己肯定感が低く、劣等感の強い人間ほど攻撃性が強く、暴力に走りやすい」ていう話、ある研究によると「実態と一致していない」らしいんすよね。実際に暴力的な人間は、むしろ過大な優越感と特権意識を持っていることが多いんだそうな。

むしろ「高すぎる自己評価が下方修正を強いられたとき(引用元の記事では「脅かされた自己中心主義」と表現)に攻撃性が発生するのではないか、という仮説を立てて実験を行い、それを裏付ける結果を得た、ということを報告している。
Reposted by Atsushi Eno
ニセの出典とかはそれで見破れるのだけど、本物の論文が出典で、タイトルとかアブストラクトはぱっと見それっぽいから大丈夫かと思ったら、内容の解釈がデタラメ、みたいなのに騙されたことありますね。

人に指摘されて確認したらそもそも指定したテーマの研究ではなかったんだけど、キーワードは結構かぶってたから自分の英語力だとアブストラクトぱっと見ただけでは気付かなかった…
検索エンジンは、Webコンテンツをクロールして収集、検索窓に入れた文言から複数のリンク先を出力します。リンク先を見て信頼できるかどうかを吟味して読みます。

Wikipediaには嘘も混じるが出典主義なので、出典のリンク先を見て吟味します。

ChatGPTなどテキスト系生成AIサービスはWebを含む大量のコンテンツを学習し、質問者が与えた文言に続けて応答を生成・出力します。ここで出力に出典のリンクを含めるよう指示し、ソースをたどって吟味することで、AIの嘘は見破ることができる(はず)。

こんなやり方は、どうでしょうか。
「GUIを出せるようにしないと操作できない + state APIをまともに試せないな…」と思って、昨晩適当にCLAPのインターフェースをもとにフォーマット共通のAPIをでっち上げて、自分でやりたくなかったのでCodexにとりあえずCLAPだけ実装させてみた。手戻りもたくさんあったし、まだいろいろおかしいけど、とりあえず動いている。
LV2/VST3/AUも実装させたいところだけど、Codexがいろいろ修正を要求しているので、対策を考えないといけない。CLAPはUI APIの設計アプローチが他と少し違うんだよな(まあどれも違うんだけど)。
「factory presetsを拾える」って書いたけど実際にはプリセットを列挙する部分はソースでコメントアウトされていて、実装されているわけではない(実装できないからコメントアウトされているんだろう)
CLAPのpreset-loadをまともに実装しているプラグインが1つも見つからず(OSSしか探していないが)、preset-discoveryではCLAP_PRESET_DISCOVERY_LOCATION_PLUGINを探すことでfactory prestsを拾えるsix-sinesもpreset-loadではCLAP_PRESET_DISCOVERY_LOCATION_FILEのuser presetsしかロードできない…というか、このAPIでfactory presetsのロードできなくね?
MMLって一般的なプログラミング言語と違ってコンテキストの適用範囲がやたら広くて、マクロの定義を1つ変えただけで全部コンパイルし直しみたいなことになるので、特定のトラック/チャンネルだけ差し替え、みたいなことができたりできなかったりなんですよね。近年の文法設計はこの辺まで意識したほうが良いという…(沼)
手元にある`.opm`ファイルからバッチ登録できるような仕組みではなかったのでもうちょっと余裕ができてからだな
やー演奏中のデータ更新はいろいろハマりどころがありますよね。いろいろな打ち込みをやって使い込んでみないと判明しなそう。