@orangekame3
← back

今日はmirrormateにVision Language Model(VLM)を実装した。VLMについては初めてしったが、Ollamaで使えそうなモデルを適当に選択して試している。応答がやや遅いがllava:7bを一旦試している。
chatについては日本語特化モデルをいくつか試したが結局gpt-oss:20bが安定して良いパフォーマンスなのでこれを採用している。

Today, I implemented a Vision Language Model (VLM) into MirrorMate. I didn’t know about VLM until now, but I tried some models available on Ollama. The response is a bit slow, but I’m trying llava:7b for now. For chat, I tried some Japanese-specific models, but eventually, gpt-oss:20b has stable and good performance, so I’m using this model.