November 3, 2025 at 9:15 AM
『VRoid』と『Blender』でベースとなる3DCG画像を作って、動画生成AIのi2vで動かせば、ショート動画くらいなら作れるのではと思って試してみたところ、1日でアッサリできました。
October 17, 2025 at 12:07 PM
『VRoid』と『Blender』でベースとなる3DCG画像を作って、動画生成AIのi2vで動かせば、ショート動画くらいなら作れるのではと思って試してみたところ、1日でアッサリできました。
なつかしい
この懐かしさを今もっかい形を変えて味わってる感じしてる
でも、決定的に違うのは元ソースは自分で用意してないってことよなあ
さて、ここでI2Vですよ、image to Video
ツールに食わせる画像をワシが描く、ってとこで、AIが生成する嘘の世界に食い込んでるって実感してる
この懐かしさを今もっかい形を変えて味わってる感じしてる
でも、決定的に違うのは元ソースは自分で用意してないってことよなあ
さて、ここでI2Vですよ、image to Video
ツールに食わせる画像をワシが描く、ってとこで、AIが生成する嘘の世界に食い込んでるって実感してる
October 5, 2025 at 9:49 AM
なつかしい
この懐かしさを今もっかい形を変えて味わってる感じしてる
でも、決定的に違うのは元ソースは自分で用意してないってことよなあ
さて、ここでI2Vですよ、image to Video
ツールに食わせる画像をワシが描く、ってとこで、AIが生成する嘘の世界に食い込んでるって実感してる
この懐かしさを今もっかい形を変えて味わってる感じしてる
でも、決定的に違うのは元ソースは自分で用意してないってことよなあ
さて、ここでI2Vですよ、image to Video
ツールに食わせる画像をワシが描く、ってとこで、AIが生成する嘘の世界に食い込んでるって実感してる
(3) With the above two-stage models excelling in motion controllability and degree, we decouple the relevant parameters associated with each type of motion ability and inject them into the base I2V-DM. Since the I2V-DM [6/8 of https://arxiv.org/abs/2503.00948v1]
March 5, 2025 at 6:18 AM
(3) With the above two-stage models excelling in motion controllability and degree, we decouple the relevant parameters associated with each type of motion ability and inject them into the base I2V-DM. Since the I2V-DM [6/8 of https://arxiv.org/abs/2503.00948v1]
散歩してるだけの健全動画
Wan2.1-I2V-14B-720P
Wan2.1-I2V-14B-720P
April 23, 2025 at 7:04 AM
散歩してるだけの健全動画
Wan2.1-I2V-14B-720P
Wan2.1-I2V-14B-720P
白いドレスな健全動画
Wan2.1-I2V-14B-720P
Wan2.1-I2V-14B-720P
April 21, 2025 at 11:21 AM
白いドレスな健全動画
Wan2.1-I2V-14B-720P
Wan2.1-I2V-14B-720P
寝間着姿の健全動画
Wan2.1-I2V-14B-720P
Wan2.1-I2V-14B-720P
April 17, 2025 at 6:22 AM
寝間着姿の健全動画
Wan2.1-I2V-14B-720P
Wan2.1-I2V-14B-720P
Finally getting around to really playing with #HunyuanVideo locally. I am one of those photographers that NEVER throws anything away. Using lots of "throwaways" to make some incredible 2-5sec videos. #comfyui #generativeai #video #i2v #t2v #v2v #topazaivideo ©VOXEFX
February 3, 2025 at 5:49 AM
Finally getting around to really playing with #HunyuanVideo locally. I am one of those photographers that NEVER throws anything away. Using lots of "throwaways" to make some incredible 2-5sec videos. #comfyui #generativeai #video #i2v #t2v #v2v #topazaivideo ©VOXEFX
December 24, 2024 at 4:39 AM
姉DVDな動画
Wan2.1-I2V-14B-720P
Wan2.1-I2V-14B-720P
May 5, 2025 at 10:45 AM
姉DVDな動画
Wan2.1-I2V-14B-720P
Wan2.1-I2V-14B-720P
貝ビキニの健全動画
Wan2.1-I2V-14B-720P
Wan2.1-I2V-14B-720P
May 11, 2025 at 6:27 AM
貝ビキニの健全動画
Wan2.1-I2V-14B-720P
Wan2.1-I2V-14B-720P
姉DVDな動画
Wan2.1-I2V-14B-720P
Wan2.1-I2V-14B-720P
May 6, 2025 at 12:21 AM
姉DVDな動画
Wan2.1-I2V-14B-720P
Wan2.1-I2V-14B-720P
蛍が散歩するだけの健全動画
Wan2.1-I2V-14B-720P
Wan2.1-I2V-14B-720P
May 17, 2025 at 8:44 AM
蛍が散歩するだけの健全動画
Wan2.1-I2V-14B-720P
Wan2.1-I2V-14B-720P
Diffusion models (I2V-DMs) by incorporating end-frame constraints via directly fine-tuning or omitting training. We identify a critical limitation in their design: Their injections of the end-frame constraint usually utilize the same mechanism that [2/8 of https://arxiv.org/abs/2505.21205v1]
May 28, 2025 at 6:13 AM
Diffusion models (I2V-DMs) by incorporating end-frame constraints via directly fine-tuning or omitting training. We identify a critical limitation in their design: Their injections of the end-frame constraint usually utilize the same mechanism that [2/8 of https://arxiv.org/abs/2505.21205v1]
キマシタワー動画
Wan2.1-I2V-14B-720P
Wan2.1-I2V-14B-720P
March 29, 2025 at 8:56 AM
キマシタワー動画
Wan2.1-I2V-14B-720P
Wan2.1-I2V-14B-720P