🐯
虎の穴ラボ Tech Talk #4 〜LLM活用LT〜 レポート
はじめに
2025年5月8日、虎の穴ラボ主催のオンラインイベント「虎の穴ラボ Tech Talk #4 〜LLM活用LT〜」が開催されました。エンジニア向けのライトニングトーク形式で、同ラボが取り組むさまざまなLLM(Large Language Model)の導入事例や技術検証の成果が共有されました。社内外のAI活用事例に興味を持つ方や、LLMツールを使って開発効率を上げたい方にとって、学びの多い会となったように感じます。
本記事では、オープニングから各登壇者の発表までを順に振り返りながら、LTで飛び出したキーワードや工夫点、そしてQ&Aでのやり取りをまとめます。人間味のある実例を交えつつ「実際に業務でどう使われているのか?」が体感できる内容です。では早速、トークの内容を章ごとに見ていきましょう。
発表1: 虎の穴ラボのAI最前線(藤原さん)
内容サマリ
オープニング兼、社内におけるAIツールの導入状況を幅広く紹介。最近導入した「Debuild」や「RueCode」、「NotebookLM」などのサービスが取り上げられ、特に以下のポイントに注目が集まりました。
Debuild 「自立型のAIソフトウェアエンジニア」として話題。Slack上で指示を与え、GitHubリポジトリに自動でプルリクを作成してくれる。課金形態や使いこなしのコツも解説。
RueCode VSCode拡張機能として動作するAIコーディングエージェント。機能を使いこなすための「プロンプトの提示方法」など、実際の利用例が示された。
NotebookLM / Gemini Google Workspaceと相性が良く、ドキュメントやPDFを元にQ&Aを行うのが容易に。自社開発していたチャットボットを置き換える決め手にもなりつつある。
印象に残った点
「単に新サービスを導入するだけでなく、なるべく社内みんなが使える形で整備し、従来の運用負荷を減らす。そうして生まれた余力を本来の開発に回す」という方針が明確でした。複数のAIツールを組み合わせることで、想定以上に開発フローを効率化できている様子が伝わってきました。
発表2: NotebookLMの活用 社内情報検索ツールの移行事例(服部さん)
内容サマリ
社内情報を「ラングチェーン+Python」で管理していた既存システムを「NotebookLM」に置き換えた事例を詳しく解説。ポイントは以下の通りです。
既存システムの課題 運用やバージョンアップの負担が大きく、Pythonスキルを持つ人が限られていた。
NotebookLMへの移行 CSVをアップロードし、システムプロンプト的な指示を「カスタムスタイル」に書き込むだけでほぼ完了。500文字制限を回避するため、長いプロンプトは別のドキュメントにまとめて参照させる工夫を実施。
メリット 運用がほぼ不要になり、AIモデルの精度が自動で向上していく。非エンジニアでも管理しやすい。結果的に「より簡単・安定したQ&Aプラットフォーム」を実現できた。
印象に残った点
「Webサービス同士を上手に連携させ、社内の人間が誰でも使えるAIチャットボットを作り上げる」というのが印象的でした。導入コストが下がり、継続的に最新AIへアップデートできるのは、まさに“自前開発→クラウドサービス移行”の理想像と言えそうです。
発表3: ShieldGemma2を試してみた 〜Googleの画像安全性分類用のモデルを検証〜(古賀さん)
内容サマリ
社内でも画像を多く扱う背景から、「ShieldGemma2」というモデルを試験導入した様子を紹介。Googleが提供する画像の安全性・性的表現・暴力表現などを推定するツールです。
評価手順 フリー画像を複数用意し、実際にモデルにかけてみてどのカテゴリーを「危険」と判定するかをチェック。
結果 銃を構えるなど明確に暴力性がある画像は高確率で“危険”と判断。露出度があるアニメ画像などは微妙に判定数値が上がるが、完全には誤判定されない。ただし「血糊」などは見分けが難しいケースもある。
ハードウェア要件 CPUかつメモリ64GB以上が推奨されるなど、やや環境構築のハードルは高め。
印象に残った点
実際の画像を何種類も用意して制度をチェックするリアルな検証が興味深かったです。動作には大容量メモリを要するため、本番導入の際はクラウド選定や仕組み作りが大切になるだろうと感じました。
発表4: ローカル環境でOllama + MCPの構成を試してみました(山田さん)
内容サマリ
MCP(Model-Linked Context Protocol)の仕組みを使って、ローカルのLLMとオラクルDBを連携させる試験を行った事例。全てをローカルで動かす構成にチャレンジし、以下の点に注目が集まりました。
なぜMCPなのか ラグの導入には工数が大きい、LLMファインチューニングには知見不足などの理由で、MCPを選択。ラングチェーンMCPアダプターズを使って試した。
構築フロー Ollamaでモデルをダウンロード → サンプルのオラクルDBを用意 → MCPサーバーを動かす → MCPクライアントからDBとの連携を実現。
苦労した点 ツールに対応したモデル(QN3など)でないと上手く動かない。さらに設定や依存パッケージなど、試行錯誤が必要だった。
印象に残った点
「社内データを安全なローカル環境で直接活用する」という理想を目指した取り組みとして、非常に勉強になる発表でした。今回はDB連携のサンプルに留まったものの、複数データベースやファイルシステムなどへ応用していく展望も語られ、今後の拡張が期待されます。
Q&Aで印象的だった話題
視聴者から寄せられた質問の中で、多く言及されていたのは以下の点です。
「Debuildと似たツールは?」 ギットハブコパイロットやChatGPTプラグインなど、AIがコード修正からコミットまで行う仕組みは複数あるが、「Debuildは開発環境ごと担ってくれる」点が大きい。
「ノートブックLMにした決め手は?」 オリジナルのラングチェーン製チャットボットより圧倒的に保守が楽で、最新AIの恩恵をそのまま享受できる。特に「利用者がエンジニア外でもOK」という点が社内導入に刺さった。
「ローカルLLMのハードルは?」 画像モデルにせよMCPにせよ、メモリやGPUの条件が厳しいケースがある。小さめのモデルやクラウドリソースと使い分けが望ましい。
全体を踏まえた感想 〜LLMとの共生がもたらす可能性〜
今回のLT会を通じて、「LLMの実用化が加速している」ことをあらためて実感しました。ちょっと前までは自前で大規模言語モデルを回すか、APIを使うかだけだったのが、今やDebuildやNotebookLMのように“ハイブリッド”な形でAIの力を取り込むサービスが増えています。運用負荷やモデル精度の問題は、こうした外部サービスやローカルモデルを組み合わせることでカバーできるようになってきました。
それぞれの発表に共通していたのは「技術的な難易度を極力下げて、いかに現場で使ってもらうか」という視点です。エンジニアだけでなく非エンジニアも気軽に活用できる環境が整えば、組織全体としての生産性が高まります。今回の虎の穴ラボの事例は、そうした現場での設計思想やノウハウが詰まっており、非常に参考になるものばかりでした。
イベント冒頭で「技術系のアウトプットを通して、社内外へ虎の穴ラボの取り組みを知ってもらいたい」と語られていましたが、本テックトークはまさにその意図を体現する場になっていたと思います。LLMを使った新しい開発のかたちや、既存業務の効率化がこれからどう広がっていくのか、今後の展開にも大いに期待が高まる内容でした。
Yardでは、AI・テック領域に特化したスポットコンサル サービスを提供しています。
興味がある方は、初回の無料スポットコンサルをお申し込みください。
また、資料請求やお問い合わせもお待ちしております。テック領域の知見を獲得し、事業成長を一緒に実現していきましょう。
Read next
Loading recommendations...