エピソード

  • マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20250630
    2025/06/29
    関連リンク Google、Gemma 3nをリリース ―エッジデバイスでの動作効率が大幅アップ、フレキシブルなマルチモーダルモデル gihyo.jp Googleが、軽量AIモデル「Gemma」の最新版「Gemma 3n」をリリースしました。このモデルは、スマートフォンやIoT機器などのエッジデバイスで効率的に動作し、テキストだけでなく画像や音声、動画も理解できる「マルチモーダル」な点が大きな特徴です。新人エンジニアの皆さんにとって、これからのAI開発で注目すべき技術です。 Gemma 3nのすごいポイント 小さいデバイスでも高性能: Gemma 3nは、少ないメモリ(最小2GB~3GB)で、これまでより大きなAIモデル並みの性能を発揮できます。これは、特別な工夫「Per Layer Embeddings (PLE)」などにより、効率が大幅に上がったためです。スマホやスマート家電など、限られた性能のデバイスにAIを組み込むのがずっと簡単になります。 いろんな種類のデータを理解できる「マルチモーダル」: Gemma 3nは、文章だけでなく、写真、声、動画の内容も理解し、それらを使って応答できます。例えば、カメラで撮ったものについてAIに質問したり、音声指示で動画を操作したりと、より自然な形でAIとやり取りできるようになります。 用途に合わせて姿を変える「マトリョーシカ」構造: このモデルは「MatFormer(マットフォーマー)」という技術を使っています。これは、ロシアのマトリョーシカ人形のように、「大きなAIモデルの中に、小さなけれど完全に機能するAIモデルが複数入っている」イメージです。この柔軟な構造のおかげで、開発者はデバイスの性能や必要な精度に合わせて、AIの大きさを自由に選んだり、カスタムモデルを作ったりできるようになりました。これにより、AIを様々な環境に最適な形でデプロイできます。 性能と多言語対応の向上: 日本語を含む140言語のテキストと35言語のマルチモーダル(画像や音声なども含む)な理解をサポート。さらに、数学、コーディング、推論といった分野での能力も大幅に向上しており、幅広いタスクで高いパフォーマンスを見せます。特に画像認識能力が高まり、モバイルデバイスでの応答速度が従来モデルより1.5倍以上速くなりました。 実際に使ってみよう! Gemma 3nは、Hugging FaceやKaggleといったプラットフォームからダウンロードできるほか、Google AI Studioでも簡単に試せます。また、GoogleはGemma 3nを使った開発コンテスト「The Gemma 3n Impact Challenge」も開催しているので、ぜひ挑戦してみてください。 Gemma 3nは、AIが私たちの身近なエッジデバイスで、より賢く、スムーズに動く未来を切り開く技術です。これからのAI開発を学ぶ上で、この新しいモデルは間違いなく重要なキーワードとなるでしょう。 引用元: https://gihyo.jp/article/2025/06/google-gemma-3n 「先週何したっけ?」をゼロに:Obsidian + Claude Codeを業務アシスタントに この記事では、MarkdownエディタのObsidianと大規模言語モデル(LLM)であるClaude Codeを組み合わせ、日々の業務を効率化する「知的業務アシスタント」を構築する実用的な方法が紹介されています。従来のメモツールが単なる「記録」に留まっていたのに対し、AI(LLM)と連携することで、情報を「記録→検索→分析→洞察」する一連のワークフローが自動化される点が大きなポイントです。 このシステムを導入することで、特に以下の三つの大きなメリットが得られたと筆者は述べています。 過去の情報をすぐに引き出せる: Obsidianに記録された膨大なメモをClaude Codeが分析することで、「先週のあの会議で話した内容は?」といった具体的な質問に対し、関連するメモを要約して教えてくれます。これにより、複数のプロジェクトを同時に進める際などに起こりがちな「どこに情報を書いたか分からない」「キーワードが思い出せない」といった課題が解決し、必要な情報に素早くアクセスできるようになりました。週次振り返りが簡単に: 毎週の振り返り作業が格段に楽になります。過去1週間分のデイリーノートや会議の記録をClaudeに読み込ませるだけで、その週の作業内容や良かった点、改善すべき点、具体的なアクションを自動でまとめてくれます。...
    続きを読む 一部表示
    1分未満
  • 私立ずんだもん女学園放送部 podcast 20250627
    2025/06/26
    関連リンク Gemini CLI : オープンソース AI エージェント Google Cloudが、開発者のための新しいAIツール「Gemini CLI」を発表しました。これは、皆さんが普段使っているコマンドライン(CLI、またはターミナルとも呼ばれます)から、Googleの強力なAI「Gemini」の機能を直接使えるようにする、画期的なツールです。 エンジニアにとって、コマンドラインは日々の作業に欠かせないツールですよね。Gemini CLIを使うと、AIがコーディングを支援してくれるだけでなく、文章の生成、問題解決のアイデア出し、詳しい情報のリサーチ、さらには日々のタスク管理まで、幅広い作業を手助けしてくれます。まるで、ターミナルの中に賢いAIアシスタントがいるようなイメージです。 特に注目すべきは、GoogleのAIコーディングアシスタント「Gemini Code Assist」と同じ技術を共有している点です。これにより、ターミナルだけでなく、皆さんが使っている開発環境(例えばVS Code)でも、AIがコードの作成や修正、デバッグなどを手伝ってくれるようになります。 個人で開発を進めている皆さんにも嬉しい無料利用枠が用意されており、高機能なGemini 2.5 Proモデルを、1日に最大1,000回、1分間に60回まで無料で利用できます。これだけあれば、ほとんどの個人開発者は制限を気にせずAIを活用できるでしょう。 また、Gemini CLIは完全にオープンソース(Apache 2.0ライセンス)として公開されています。これは、世界中のエンジニアが自由にコードの中身を確認したり、新しい機能の提案をしたり、一緒にツールを改善したりできることを意味します。Google検索と連携してAIが最新のウェブ情報を参照したり、独自のAIへの指示(プロンプト)を設定して特定の作業に特化させたりすることも可能です。さらに、スクリプトに組み込んで、繰り返し行うタスクをAIに自動で処理させることもできるため、日々の開発ワークフローを大きく効率化できる可能性があります。 Gemini CLIは、これからの開発者の働き方を大きく変える可能性を秘めた、強力で開かれたツールです。インストールも簡単で、すぐに使い始められますので、ぜひ一度試してみて、皆さんの開発体験をアップグレードしてみてください。 引用元: https://cloud.google.com/blog/ja/topics/developers-practitioners/introducing-gemini-cli/ Claude Codeを使い倒す方法 AIアシスタント「Claude Code」(大規模言語モデルを活用した開発ツール)を最大限に活用するための、実践的なタスク管理術が解説されています。せっかく有料プランを契約しても、「どのようなタスクを任せればいいか分からない」「AIが作ったコードのレビューが大変で、結局自分が作業の遅れの原因(ボトルネック)になってしまう」といった悩みは、多くの新人エンジニアにも共通するかもしれません。 この記事では、この課題を解決するため、タスクを「その仕事が事業にどれだけ重要か(ビジネス価値)」と「自分がどれだけ深く関わる必要があるか(自分の関与度)」の2つの軸で整理する「4象限戦略」を提案しています。 具体的には、以下の4つの象限に分けてAIアシスタントとの関わり方を変えます。 第1象限:事業価値が高く、自分が深く関わる「コア機能開発」 プロダクトの競争力に直結する重要な機能開発や設計がここにあたります。AIはあなたの「ペアプログラミングのパートナー」や「設計の壁打ち相手」として活用します。実装はAIに任せつつも、レビューは特に念入りに行い、あなたの設計力や問題解決能力を高めるために使います。 第2象限:事業価値が高く、ある程度任せられる「共同開発タスク」 既存機能の拡張や、緊急ではないけれど重要なバグ修正などが該当します。AIには明確な仕様を伝えて実装を任せ、進捗を定期的に確認し、最終レビューを行います。あなたが第1象限の重要なタスクに取り組んでいる間に、AIが並行してこれらのタスクを進めてくれるイメージです。 第3象限:開発効率化のためで、完全に任せられる「自動化タスク」 テストコードの追加、開発環境の自動化(CI/CDの改善)、定型的なリファクタリング、ドキュメント生成など、AIに「丸投げ」できるタスクです。...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20250626
    2025/06/25
    関連リンク Gemini CLI: your open-source AI agent Googleは、開発者向けに「Gemini CLI(Command Line Interface)」という新しいオープンソースのAIエージェントを発表しました。これは、GoogleのAIモデルであるGeminiの強力な機能を、皆さんが普段利用しているターミナル(コマンドライン)で直接使えるようにするツールです。 このツールの最大の目的は、開発者の作業を効率化することにあります。コードの生成、プログラムの問題解決(デバッグ)、情報検索、日々のタスク管理など、様々な開発作業をAIの力を借りてよりスムーズに進められるようになります。 Gemini CLIの主な特徴は以下の通りです。 オープンソースであること: Apache 2.0ライセンスで公開されており、誰でもコードの中身を確認したり、開発に貢献したりできます。これにより、ツールの透明性が高く、セキュリティ面でも安心して利用できます。また、開発者が自分のニーズに合わせて機能を拡張できる柔軟性も持っています。Gemini 2.5 Proモデルへのアクセス: 最先端のGemini 2.5 Proモデルを利用でき、100万トークンという非常に大きなコンテキストウィンドウ(一度に扱える情報量)を持つため、複雑なリクエストにも対応できます。充実した無料利用枠: 個人の開発者は、個人用のGoogleアカウントでサインインし、Gemini Code Assistの無料ライセンスを利用することで、1分あたり60リクエスト、1日あたり1,000リクエストまで無料でGemini CLIを使うことができます。これは業界でもトップクラスの利用量です。多様な機能連携: Google検索と連携してリアルタイムな情報を取得し、プロンプトの回答精度を高める「グラウンディング」機能や、独自の拡張機能を追加できる仕組み(Model Context Protocol)も備わっています。また、プロンプトや指示をカスタマイズしたり、スクリプトに組み込んで作業を自動化したりすることも可能です。 さらに、Gemini CLIはGoogleのAIコーディングアシスタント「Gemini Code Assist」と同じ技術基盤を共有しています。これにより、VS Codeなどの統合開発環境(IDE)でも、Gemini CLIと同様の強力なAIエージェント機能(例えば、複雑なタスクを複数ステップで計画・実行する「エージェントモード」)が利用でき、ターミナルとIDEの両方でシームレスなAI開発体験が得られます。 この新しいツールは簡単に導入でき、日々の開発作業を大きく変える可能性を秘めています。 引用元: https://blog.google/technology/developers/introducing-gemini-cli-open-source-ai-agent/ MUVERA: Making multi-vector retrieval as fast as single-vector search このGoogleの研究ブログ記事は、情報検索(IR)の分野で使われる「マルチベクトル検索」を高速化する新しい技術「MUVERA」について紹介しています。情報検索は、膨大なデータの中からユーザーが知りたい情報(例えばLLM(大規模言語モデル)の「RAG(Retrieval Augmented Generation)」機能で使う知識など)を素早く見つけ出すための重要な技術です。 最近の情報検索では、文章などをコンピュータが扱いやすい数値の並び「ベクトル(埋め込み)」に変換して、ベクトル同士の似ている度合い(類似度)を計算することで、関連する情報を探すのが一般的です。これまでの「単一ベクトル検索」は、一つのデータに一つのベクトルを割り当て、高速に検索できましたが、情報が複雑になると検索の精度に限界がありました。 そこで、より高度な「マルチベクトルモデル」が登場しました。これは、一つのデータに対して複数のベクトルを生成することで、よりきめ細かく情報を表現でき、検索精度を大きく向上させることができます。しかし、たくさんのベクトルを扱い、複雑な方法で類似度(「Chamfer類似度」など)を計算するため、検索に時間がかかってしまうという課題がありました。 MUVERA(Multi-Vector Retrieval via Fixed Dimensional Encodings)は、この「マルチベクトル検索は精度が高いけれど遅い」という問題を解決するための技術です。MUVERAは、複雑なマルチベクトルの情報を「FDE(Fixed Dimensional Encoding)」という、たった一つのシンプルな単一ベクトルに変換します。このFDEは、元のマルチベクトル間の複雑な類似度を、単一ベクトルで使...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20250625
    2025/06/24
    関連リンク Claude Codeとplaywright mcpを連携させると開発体験が向上するのでみんなやろう この記事では、AI開発ツール「Claude Code」と、ブラウザ操作を自動化する「Playwright MCP」を連携させることで、開発効率が大きく向上するという実践的な方法が紹介されています。 Playwright MCPは、Webブラウザ(Chromeなど)をプログラムから操作するためのツール「Playwright」を、AIアシスタントから利用できるようにしたものです。この連携の最大のメリットは、Claude Codeが生成したコードが実際に動作するかを、その場でブラウザを使って自動的に確認できるようになる点にあります。 これまでのAI開発では、「Claude Codeが『できました!』と言うけれど、実際に動かしてみるとエラーだらけで全然動かない…」という経験が少なくありませんでした。しかし、Playwright MCPと連携させることで、Claude Codeがコードを生成した後、すぐにPlaywright MCPを使ってそのコードをブラウザで実行し、期待通りに動くか確認できるようになります。これにより、開発者がコードを試す前にAIが自己デバッグを行うようになるため、「想像でコードを書く→動かない→修正」という非効率なループから抜け出し、「想像でコードを書く→ブラウザで試す→動くことを確認してから提出」という、よりスムーズで信頼性の高い開発フローを実現できます。特に、WebページのUI(ユーザーインターフェース)の動作確認など、AIが苦手としがちなタスクでの効果が期待できます。 この連携を実現するには、Claude Codeの設定ファイルにPlaywright MCPを認識させるための記述を追加する必要があります。具体的には、~/.claude.jsonや専用の設定ファイルに、Playwright MCPの実行コマンドやブラウザの起動オプションなどを設定します。また、Claude Codeに「Playwright MCPツールだけを使ってブラウザ操作を行うこと」「エラーが発生したらすぐに報告すること」といったルールを明確に指示するために、CLAUDE.mdというファイルに専用のガイドラインを追記することが推奨されています。これにより、AIが余計なコード実行を試みることなく、意図した通りのブラウザ操作に集中するようになります。 このように、Claude CodeとPlaywright MCPを連携させることで、AIを活用した開発の信頼性と効率性を飛躍的に高めることができ、新人エンジニアの方々も安心してAIと一緒に開発を進められるようになるでしょう。 引用元: https://zenn.dev/sesere/articles/4c0b55102dcc84 FilMaster: Bridging Cinematic Principles and Generative AI for Automated Film Generation この研究論文「FilMaster」は、AIを使って本格的な映画を自動で作り出す新しいシステムについて紹介しています。これまで、AIが作る映像は「映画らしさ」が足りず、カメラワークや映像と音のテンポ(映画的なリズム)が単調になりがちでした。これは、プロの映画制作で重要とされる「映画制作の原則」が十分に反映されていなかったためです。 FilMasterは、この課題を解決するために開発されました。このシステムは、以下の2つの主要な考え方に基づいて作られています。 実際の映画から「映画らしさ」を学ぶ: 膨大な量の映画データから、プロが使うカメラワークや演出のノウハウをAIに学習させます。観客目線で「編集作業」を再現する: 映画制作における撮影後の編集(ポストプロダクション)プロセスを、観客がどう感じるかを重視してAIが行うように設計されています。 FilMasterの映像生成プロセスは、大きく2つの段階に分かれています。 1. 参照ガイド付き生成ステージ: ユーザーが入力した内容(例えば「こんなシーンを作りたい」という指示)をもとに、AIが実際のビデオクリップを生成します。この段階では、44万もの映画クリップのデータベースを参照し、そこから最適な「お手本」を探し出して、プロのようなカメラの動きやアングル(カメラ言語)を持つ映像を作り出すのが特徴です。まるで、優秀なアシスタントが過去の名作からヒントを得て映像のアイデアを出してくれるようなイメージです。 2. 生成ポストプロダクションステージ: 生成された「生の映像素材」を、さらに映画らしく編集する段階です。ここでは、...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20250624
    2025/06/23
    関連リンク AI Agent Manager (AAM) として生きていく : 作業環境とワークフローの設計 この記事は、AI Agent(AIアシスタント)が開発現場の主役になる未来を見据え、人間のエンジニアが「AI Agent Manager (AAM)」という新しい役割を担う可能性について解説しています。これは、まるで人間の上司が部下をマネジメントするように、AI Agentを管理する仕事が中心になる、という考え方です。 AAMの仕事は、従来のエンジニアが直接コードを書くこととは少し違います。AI Agentが効率的に開発を進められるように、以下のような管理業務が主な役割になります。 AI Agentに仕事の目的を伝えるプロジェクトやタスクの背景など、必要な情報を丁寧に教えてオンボーディングするAI Agentの進捗を管理する計画や成果物を評価する作業プロセスを改善するためのPDCAサイクルを回す この記事では、AAMとして特に重要な「働く環境の整備」と「ワークフローの設計」という2つのノウハウが共有されています。 1. AI Agentが働く環境の整備 AI Agentの主な作業場所はGitリポジトリになります。人間はリポジトリ外の情報(デザインツールやチャットなど)から多くのヒントを得ますが、AI Agentはそうではありません。そのため、AI Agentに必要な情報を漏れなく与える「コンテキストの付与」が非常に大切です。これには、リポジトリ内にルールやガイドラインをまとめたファイル(例:CLAUDE.md)を置いたり、タスク固有のメモをリポジトリから除外されるフォルダに保存したり、さらに外部の情報源にアクセスできる「MCP Server」と呼ばれる仕組みを充実させたりする方法があります。特に、会社やチーム全体でルールを統一し、AI Agentがどこでも効率的に働けるようにMCP Serverを拡充することが重要だと述べられています。 2. AI Agentのワークフロー設計 AI Agentに仕事をさせるための「手順」を設計することもAAMの重要な仕事です。記事では、リポジトリの初期設定から、タスクの立ち上げ、必要な情報の読み込み、実装方針の検討、依存関係の学習、実際のコード実装、テスト、そして作業の振り返りまで、具体的な8つのステップが提案されています。それぞれのステップで、AI Agentに適切な指示(プロンプト)を与えることが求められます。特に、AI Agentに「カスタムコマンド」としてこれらの指示を登録し、決まった手順で実行させることで、効率的に作業が進むようになります。AI Agentが意図しない動きをした場合は、振り返りを通じてプロンプトやルールを改善していくことが大切です。 将来的に、AAMにはAI Agentの能力を最大限に引き出し、開発の生産性を向上させるスキルが求められます。具体的には、複数のAI Agentが同時に作業できる環境を整えたり、新しいAgentでもすぐに仕事に取りかかれるように準備したり、AI Agentが常に必要な情報を得られるようにしたり、開発コストを最適化したりする能力です。また、AI Agentが正しいコードを書き、質の高いレビューができるように、コマンド設計やワークフローの改善、さらにはAIモデル自体の性能を高める「チューニング」に関する知識も重要になると提言されています。 この記事は、AI Agentが開発の中心となる未来において、エンジニアがどのように活躍し、自身のスキルを磨いていくべきか、新しい視点を提供してくれるでしょう。 引用元: https://qiita.com/icoxfog417/items/f15e92f05b14411fd642 LiteLLMを使ったLLMの集約 & 簡易的なKey管理 + langfuse添え LLM(大規模言語モデル)の利用が広がる中で、OpenAIやClaude、Azure OpenAIなど様々なプロバイダーのLLMを使うと、それぞれAPIの形式が異なったり、APIキーの管理が複雑になったりして困ることがあります。この記事では、こうした課題を解決する「LiteLLM」というツールと、その便利な機能について、新人エンジニアの方にも分かりやすく解説します。 LiteLLMとは? LiteLLMは、複数のLLMプロバイダーへのアクセスを「統一された窓口」として提供するオープンソースのソフトウェアです。これを「LiteLLM Proxy Server」として動かすことで、異なるLLMのAPI形式の違いを意識することなく、OpenAIと同じような形式でリクエストを送れるようになります。...
    続きを読む 一部表示
    1分未満
  • マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20250623
    2025/06/22
    関連リンク GitHub Copilotの「Agent mode」が正式リリース、MCPはプレビュー版提供開始 「GitHub Copilot」というAIアシスタントが、エンジニアの開発作業を強力にサポートする新機能「Agent mode(エージェントモード)」を正式にリリースしました。さらに、AIがさまざまな外部ツールと連携するための新しい技術「Model Context Protocol(モデルコンテキストプロトコル、略してMCP)」のプレビュー版も提供が開始されています。 GitHub Copilot「Agent mode」とは? これまでのGitHub Copilotは、皆さんがコードを書くときに「Ask mode」として、質問に基づいてコードの候補を提案する機能が中心でした。しかし、今回正式リリースされた「Agent mode」は、さらに進化したAIのサポートを提供します。 Agent modeでは、「この機能を追加してほしい」「このバグを修正してほしい」といった、より大きな開発タスクをCopilotに指示できます。すると、Copilot自身がそのタスクをどう進めるか計画を立て、コードの解析や編集、コマンドの実行、エラーへの対応、自己修正といった一連の作業を自動で繰り返しながら、タスクを最初から最後まで自律的に処理してくれます。まるで、AIがあなたの隣でペアプログラミングをしてくれるようなイメージです。 もちろん、AIが勝手にすべてを進めるわけではありません。皆さんは、AIが進めている作業内容を途中で確認したり、必要であれば内容を編集したり、作業を元に戻したりと、AIの進行をコントロールすることが可能です。これにより、開発者はより複雑なタスクをAIに任せつつ、最終的な品質を自身で管理できるようになります。 「Model Context Protocol(MCP)」とは? 現在プレビュー版が提供されているMCPは、AIエージェントが、さまざまな外部ツールやサービスと標準的な方法で連携できるように設計された技術です。 将来的には、データベース、CI/CD(継続的インテグレーション/継続的デリバリー)、モニタリングシステムなど、開発で使う多種多様なツールとAIがスムーズに連携できるようになることが期待されています。これにより、開発環境がさらに強化され、AIがより広範囲な作業を自動でこなせるようになる可能性があります。MCPはオープンソースとして公開され、Visual Studioなどの開発ツールでmcp.jsonファイルを使って設定することができます。 その他の便利なアップデート 今回のアップデートでは、他にもいくつかの機能が追加されました。AIへの指示(プロンプト)をファイルとして保存し、再利用したりチームで共有したりできるようになりました。また、より高性能なAIモデルである「Gemini 2.5 Pro」や「GPT-4.1」にも対応し、より賢いコード提案やタスク処理が期待できます。さらに、AIの出力結果を確認しやすくなる「出力ウィンドウ参照機能」も追加され、使い勝手が向上しています。 これらの新しい機能は、GitHub Copilotが単なるコード補完ツールから、開発プロセス全体を支援する強力なAIアシスタントへと進化していることを示しています。新人エンジニアの皆さんも、これらのAIツールを上手に活用することで、日々の開発作業をより効率的に、そしてより楽しく進めることができるでしょう。 引用元: https://codezine.jp/article/detail/21768 データ分析領域へのLLM導入動向(各分析ソリューション会社の動き) データ分析の分野で、AI、特に「大規模言語モデル(LLM)」の導入が急速に進んでいます。これにより、これまで専門家だけが行っていたデータ分析が、より多くの人が手軽に、そして効率的にできるようになりつつあります。データ分析はどんな企業でも非常に重要で、市場規模も大きいため、GoogleやAmazonといった大手テクノロジー企業もこぞってLLMを使った新しいデータ分析ソリューションの開発に力を入れています。 最近の大きなトレンドの一つが、自然な日本語の質問から、データベースを操作するための専門言語である「SQL」のコードを自動で生成する「Text-to-SQL」という技術です。これにより、プログラミングの知識がないビジネス担当者でも、「先月ニューヨーク市のクリニックを訪れた糖尿病患者数は?」といった具体的な質問...
    続きを読む 一部表示
    1分未満
  • 私立ずんだもん女学園放送部 podcast 20250620
    2025/06/19
    関連リンク AI system development: LLM → RAG → AI Workflow → AI Agent CodeLink この記事では、AIシステム開発が「LLM」から始まり、「RAG」「AI Workflow」を経て、最終的に「AI Agent」へと段階的に進化していく過程を、新人エンジニアにも分かりやすく解説しています。すべてのAIシステムに高度なAI Agentが必要なわけではなく、解決したい問題に合わせて適切な技術を選ぶことが重要だと述べられています。 まず、Pure LLM(純粋なLLM)は、インターネット上の膨大な情報を学習した知識の塊です。小説の要約や文章作成など、学習データ内の情報を使うタスクは得意ですが、リアルタイムの情報取得や外部ツールとの連携はできません。しかし、プロンプトの工夫(in-context learningなど)で、ある程度の問題解決が可能です。例えば、レジュメが職務要件に合うかを分類するような単純なタスクなら、LLM単体でも対応できます。 次に、RAG (Retrieval Augmented Generation)は、LLMに外部の関連情報を与えることで、より正確で最新の回答を生成させる手法です。これにより、LLMは企業の内部データや最新のリアルタイム情報も活用できるようになります。レジュメスクリーニングの例では、社内の技術マニュアルや過去のレジュメを参考にして、より適切な判断ができるようになります。この際、ベクトルデータベースやセマンティック検索といった技術が使われます。 さらに進んだ段階が、Tool Use & AI Workflow(ツール利用とAIワークフロー)です。これは、LLMが電卓やメールサービス、検索エンジンといった外部ツール(API)と連携し、定められた手順に沿ってビジネスプロセスを自動化する仕組みです。定型的なタスク、例えばレジュメの取得、内容評価、そして合否通知メールの送信といった一連の流れを自動化できます。LLMはデータベースやメールAPI、カレンダーAPIなどにアクセスして、プログラムされた手順を実行します。 そして、最も進化した形がAI Agent(AIエージェント)です。AIエージェントは、タスクを自律的に分解し、必要なツールを判断して使い、結果を評価し、次に何をすべきかを自分で決められるシステムです。AIワークフローが決められた手順をなぞるのに対し、AIエージェントは自分で計画を立て、状況に応じて動的に手順を決定・実行します。採用プロセス全体(CV解析、面接調整、スケジュール変更対応など)を、人間がほとんど介入せずに自動で管理するような複雑なタスクをこなすことができます。 この記事の重要なポイントは二つです。一つは、「すべてのシステムにAIエージェントが必要なわけではない」ということ。シンプルな構成から始め、必要に応じて複雑な機能を追加していくのが賢明です。もう一つは、「機能よりも信頼性を重視すべき」という点。LLMは非決定的な性質があるため、本番環境で安定稼働させるには、綿密なテストと安全対策(ガードレール)が不可欠です。新人エンジニアの皆さんも、この段階的な進化と重要ポイントを理解して、AIシステム開発に取り組んでいきましょう。 引用元: https://www.codelink.io/blog/post/ai-system-development-llm-rag-ai-workflow-agent How Early Access to NVIDIA GB200 Systems Helped LMArena Build a Model to Evaluate LLMs こんにちは、新人エンジニアの皆さん! 今回ご紹介する記事は、私たちが普段利用する大規模言語モデル(LLM)の「どれが、どんなタスクに一番得意なのか」を賢く評価する新しいシステムと、その裏側にある最新技術のお話です。 カリフォルニア大学バークレー校のLMArenaが開発した「P2L(Prompt-to-Leaderboard)」モデルは、LLMの得意分野を見極めるための画期的なツールです。これまでのLLM評価は総合スコアで示されることが多かったのですが、P2Lは「数学ならこのモデル、プログラミングならあのモデル」といったように、特定のタスク(例えば、数学、コーディング、創造的ライティングなど)ごとに、どのLLMが優れているかを人間の評価(投票)を基に判断します。これにより、単一のランキングでは見えにくいLLMごとの「個性」や「得意技」がはっきり分かるようになります。さらに、予算に応じて最適なモデルを自動で選ぶ「...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20250619
    2025/06/18
    関連リンク 【Claude Code Tips】私のマイCLAUDE.mdを解説します この記事では、ターミナルで動作するAIコーディングツール「Claude Code」をより効果的に使うための設定ファイル「CLAUDE.md」について、具体的な設定例を交えながら解説されています。新人エンジニアの方も、AIを活用した開発のヒントとして役立つでしょう。 CLAUDE.mdは、Claude Codeにプロジェクト固有の知識を覚えさせる「メモリ機能」です。これにプロジェクトの設計やコーディングルール、作業の流れなどを記述することで、AIが生成するコードの質を上げることができます。たくさん書きすぎるとAIが内容を無視してしまうことがあるため、必要な情報を簡潔にまとめることが大切です。英語で書く方がAIが処理しやすい(トークン量を抑えられる)側面もありますが、筆者は保守性を考慮して日本語で書くことも問題ないとしています。 筆者のCLAUDE.mdには、開発中のSNSアプリ「Gotoshisha」の具体的な情報が記述されています。 プロジェクト概要: アプリの目的や主な機能。技術スタック: 利用しているプログラミング言語、フレームワーク、クラウドサービスなど。プロジェクト構造: ディレクトリの構成。開発ワークフロー: 環境構築や開発開始の手順。テストガイドラインとコード生成規約: テストの書き方(Vitestを使い、テストコードを実装ファイルと同じ場所に書く、日本語でテスト説明を書くなど)や、コードの書き方のルール(コメントの付け方、ハードコードを避けるなど)。 特に注目すべきは、テストガイドラインの重要性です。AIにコードを生成させる際、テスト駆動開発(先にテストを書き、それに合わせてコードを開発する手法)と組み合わせることで、AIが作ったコードが正しく動くかを確認しやすくなり、スムーズに開発を進められると筆者は強調しています。 また、Claude Codeが実行できるコマンドを細かく設定する.claude/settings.jsonファイルについても紹介されています。このファイルで、AIに自動で許可するコマンド(allowリスト)と、絶対に禁止するコマンド(denyリスト)を設定することで、安全にAIと協力して開発を進めることができます。 まとめると、CLAUDE.mdにプロジェクトの情報を詳しく、かつ簡潔に記述し、特にテスト駆動開発と組み合わせることで、Claude Codeの能力を最大限に引き出し、効率的で品質の高い開発ができるという点がこの記事の大きな学びです。 引用元: https://zenn.dev/dirtyman/articles/ddbec05fd9fbb4 Benchmarking LLM Inference Costs for Smarter Scaling and Deployment この記事は、大規模言語モデル(LLM)の運用にかかるコスト(推論コスト)を効率的に見積もり、賢くシステムを拡張・展開するための方法を、新人エンジニアにも分かりやすく解説しています。LLMが様々なアプリケーションの基盤となる中で、システムを大規模に運用する際には、どれくらいのインフラが必要で、総費用(TCO: Total Cost of Ownership)がどれくらいになるかを事前に把握することが非常に重要になります。 このブログ記事では、主に以下の3つのステップを通じて、LLMの推論コストを計算する流れを説明しています。 パフォーマンスベンチマークの実施: まず、LLMを動かすサーバーが、どれくらいの速さでどれだけの処理量(スループット)をこなせるのか、そして応答にどれくらいの時間(レイテンシ)がかかるのかを測定します。これは、必要なハードウェアの規模を決めるための土台となります。NVIDIAの「GenAI-Perf」のようなツールを使うと、「最初の単語が出るまでの時間(TTFT)」や「1秒あたりのリクエスト数(RPS)」といった主要な性能指標を測ることができます。これは、チャットボットのようにリアルタイム性が求められるシステムでは特に重要です。 ベンチマークデータの分析と最適な構成の特定: 測定したデータから、システムが最高の性能を発揮できるバランス点を見つけます。一般的に、多くのリクエストを同時に処理しようとするとスループットは上がりますが、個々の応答にかかる時間は長くなる傾向があります(レイテンシが増える)。このトレードオフを理解し、例えば「応答時間は250ミリ...
    続きを読む 一部表示
    1分未満