lunranstudio.bsky.social
@lunranstudio.bsky.social
validationに問題が見当たらない
モデルの汎化性能か
December 25, 2025 at 11:16 AM
decoderの引数が違う
December 24, 2025 at 2:57 PM
4060Tiだと5.5分
December 14, 2025 at 11:15 PM
forwardに入力の正規化を追加したが、ablation studyで必要だったのか確認する
December 8, 2025 at 3:15 PM
入力データの前処理はローカルで行い、サイズを圧縮する。30GBでダウンロード5分、展開5分程度になった。
ライブラリのインストールはコンテナシステムのpipを使い、uvを使わない。コンテナシステムのpythonにtorchが導入済みのため、二重に仮想環境を作るより早い。
December 7, 2025 at 11:30 PM
コードのダウンロード、ライブラリのインストール、入力データのダウンロードと展開、学習実行、モデルのアップロード、インスタンス停止までをスクリプト化することで、インスタンスとストレージを保持する必要が無くなった。
December 7, 2025 at 11:28 PM
外部ストレージを同じマシン上の別コンテナに接続することができ、その際にinterruptibleとon-demandを変更できる
November 29, 2025 at 12:22 PM
最低価格だとすぐにinterruptされるので、~$0.4/hは必要(on-demandなら0.5~)、ストレージは~$10のものがある
Google CloudのL4だと、spotで~$0.4(on-demandなら~$0.9)、ストレージは$10
November 29, 2025 at 12:20 PM
両方不可
November 24, 2025 at 2:18 PM