Vibe Coding研修 詳細タイムテーブル
M1: 導入とマインドセット転換(30分)
0-5分:問題提起
キラーフレーズ: 「GitHubのCopilotは便利だけど、客先で『これ、データどこに送られてるんですか?』って聞かれたら答えられますか?」
実際に話す内容:
- 画面共有:某大手企業のAI利用ガイドライン(実例)
- 「SESの皆さんが直面する現実:使いたいけど使えない、このジレンマを今日解決します」
- データ:国内企業の68%がAI導入を検討するも、実際に導入は12%という現実
5-15分:Vibe Codingの本質
キラーフレーズ: 「ChatGPTにコードをコピペして『直して』って言うのは、もう古い。AIが横に座って一緒にコーディングする時代です」
理解してほしいこと:
- Chat型:人間が指示 → AI が回答 → 人間がコピペ(分断された作業)
- Vibe型:AIが開発環境に常駐し、文脈を理解して自然にサポート
実際に話す内容:
- 実演:「従来のやり方」vs「Vibe Coding」のライブ比較
- 「指示待ち部下」vs「優秀なペアプログラマー」の例え
- 開発速度3倍向上の実データ表示
15-25分:セキュリティ懸念の正しい対処法
キラーフレーズ: 「『AIは危険』じゃない。『どこの誰が作ったAIを、どこのサーバーで動かすか分からない』のが危険なんです」
理解してほしいこと:
- 問題はAI技術そのものではなく、データの流れと管理
- Azure OpenAI = Microsoftの日本データセンター、企業向けSLA、ログ管理
実際に話す内容:
- 図解:データフローの可視化(ローカル→Azure Japan→ローカル)
- 「コンプライアンス担当者にはこう説明してください」実演
- 実際の導入承認書類のテンプレート提示
25-30分:研修全体の学習戦略
キラーフレーズ: 「今日学ぶ12のスキル、全部覚える必要はありません。M2〜M4だけでも現場の生産性は2倍になります」
実際に話す内容:
- ロードマップ提示:「明日から使う」「1週間後に追加」「1ヶ月後にマスター」
- 「無理に全部やろうとして挫折するより、1つずつ確実に」
M2: 基本環境構築(45分)
0-5分:ツール選定戦略
キラーフレーズ: 「ツールは武器です。シチュエーションに合わせて使い分けができるエンジニアが強い」
理解してほしいこと:
- gemini-cli:軽量、高速、ちょっとした確認に最適
- Claude Code:ターミナル主体、サーバー作業やCLI開発向け
- Cline:VSCode統合、フロントエンド開発やGUI作業向け
実際に話す内容:
- 場面設定:「急ぎのバグ修正」「新規API開発」「UI調整」での使い分け
- 「全部覚えなくていい、まずは1つ選んで使いこなそう」
5-20分:gemini-cli環境構築
キラーフレーズ: 「APIキーの扱いを間違えると、月末に請求書で心臓が止まります」
実際に話す内容:
- 画面収録:Google AI Studioでのプロジェクト作成を最初から最後まで
- 「環境変数設定、絶対に.bashrcに直書きしないでください」の警告
- 実演:
export GEMINI_API_KEY=sk-xxx... → gemini "Hello world"
- トラブル実演:「Command not found」エラーの解決法
20-35分:Claude Code環境構築
キラーフレーズ: 「Anthropicのモデルは『考えてから書く』。雑なプロンプトでも質の高いコードが出ます」
実際に話す内容:
- Anthropic Console画面の実操作を録画
- 料金体系の説明:「1リクエスト約2-5円、月額制限設定の重要性」
- 実演:
claude "Pythonでファイル読み込み関数作って" → 出力解説
- 「Claudeは推論ステップを見せてくれるので、AIの思考が分かります」
35-45分:Cline (VS Code) 環境構築
キラーフレーズ: 「ClineはVSCodeの中で生きています。ファイル構造を理解して、プロジェクト全体を見渡してコードを書きます」
実際に話す内容:
- Extensions検索「cline」から「Install」までの画面録画
- Azure OpenAIの画面で「Keys and Endpoint」の場所を指差し
- 実演:
.envファイル作成とAZURE_OPENAI_API_KEY設定
- 「初回のAsk Agent、緊張の瞬間ですね」→実際にHello World
M3: 初回体験(30分)
0-10分:安全な初回タスクの選び方
キラーフレーズ: 「AIを使うときの鉄則:『壊れても大丈夫なもの』から始める。本番環境でいきなり使うのは自殺行為です」
理解してほしいこと:
- 「新規ファイル作成」「単体関数」「テストコード」から始める
- 「既存の重要ファイル直接編集」は慣れてから
- 必ずgitで管理された環境で実験
実際に話す内容:
- 「私も最初、既存のAPIをAIに直させて、2時間後にサーバーが落ちました」(失敗談)
- チェックリスト提示:「初回タスクに適したもの・適さないもの」
- 「バックアップ取ってますか?git status確認してますか?」
10-20分:実際の操作体験
キラーフレーズ: 「魔法の瞬間です。『配列をソートして』って言ったら、言語を指定してないのに、プロジェクトファイルを見て自動でPythonで書いてくれました」
実際に話す内容:
- 画面録画:「配列をソートする関数を作って」をClineに指示
- AIの出力を1行ずつ解説:「ここでPythonを選んだ理由」「docstringまで書いてくれる」
- 「このコードをそのまま使いますか?私ならここを修正します」
- 実演:出力されたコードを実際に実行してテスト
20-30分:トラブルシューティング
キラーフレーズ: 「AIが思ったのと違うコードを書いたら、腹を立てる前に『自分の指示が曖昧だったかも』と考えてください」
実際に話す内容:
- 実演:「Rate limit exceeded」エラーの画面とその対処
- 実演:曖昧な指示「いい感じにして」→微妙な出力→具体的な指示「○○を××に修正」→良い出力
- 「AIは優秀な新人エンジニア。具体的に指示すれば期待通りに動きます」
- 実際のエラーログ例とその読み方
M4: 作業ログとgit連携(45分)
0-10分:なぜ作業ログが重要なのか
キラーフレーズ: 「客先で『この機能、誰が作ったんですか?AIですか?』と聞かれて、『はい』としか答えられないエンジニアは信用されません」
理解してほしいこと:
- SESの価値は「技術力」だけでなく「説明責任」「品質保証」
- AIを使ったことを隠すのではなく、「AIを適切に活用して品質を担保した」と説明できることが重要
- ログは自分の身を守る保険でもある
実際に話す内容:
- 実例:「AIが書いたコードにバグがあって、『なぜこの実装にしたのか』を説明できずに信頼失墜したケース」
- 「AIツールは『魔法の箱』ではありません。使いこなすプロフェッショナルが必要」
- 「ログがあれば、問題発生時も迅速に原因特定・修正できます」
10-25分:効果的な作業ログの書き方
キラーフレーズ: 「このテンプレート、私が3年間の試行錯誤で作りました。これがあれば客先でも堂々と報告できます」
実際に話す内容:
## AIタスクログ
**日時:** 2025-06-30 14:30
**ツール:** Cline (Azure OpenAI GPT-4)
**タスク:** ユーザー認証機能の実装
**入力プロンプト:** [実際のプロンプトを記録]
**出力結果:** [生成されたコードの概要]
**人間の判断:** [採用/修正/却下の理由]
**検証結果:** [テスト実行結果]
**課題・改善点:** [次回への改善ポイント]
- 実演:実際にこのテンプレートを使って作業ログを作成
- 「コピペして使ってください。最初は面倒でも、慣れれば5分で書けます」
25-40分:git連携による履歴管理
キラーフレーズ: 「git commit -m "AI generated"は最悪です。何を生成したか分からない。『feat: AI実装によるユーザー認証API追加(Claude/プロンプト詳細は作業ログ参照)`これが正解」
実際に話す内容:
- ターミナル画面で実演:適切なcommit messageの書き方
- 実演:ブランチ戦略「feature/ai-experiment」での安全な実験
- 「commitログを見れば、チームメンバーも『これはAIが書いたから注意深くレビューしよう』と分かります」
.gitignoreに作業ログファイルを追加する設定
40-45分:チーム共有とレビュープロセス
キラーフレーズ: 「AIを使ったことを後ろめたく思う必要はありません。『効率化ツールを使いこなすプロ』として堂々としてください」
実際に話す内容:
- Slackやチャットでの報告例:「本日の作業でAIツールを活用し、○○機能を実装しました。作業ログは△△に保存済み」
- 「客先への月次報告でも『AI活用による効率化と品質向上』として正々堂々と報告」
- 「隠すのではなく、プロフェッショナルな活用として示す」
M5: よくある失敗とRule設計(60分)
0-15分:テスト時ハードコーディング問題
キラーフレーズ: 「AIは『今動けばいい』で考えます。人間は『1年後もメンテナンスできるか』で考えないといけません」
理解してほしいこと:
- AIは具体例で学習しているため、テストコードでも具体的な値を書きがち
- ハードコーディングされたテストは時間が経つと壊れる
- 「動的な値検証」の重要性
実際に話す内容:
javascript
// ❌ AIが書きがちな悪いテスト
expect(user.createdAt).toBe("2024-01-01T00:00:00Z");
expect(user.id).toBe(123);
- 「この画面を見た瞬間に『あ、これAIが書いたな』って分かりますよね」
- 良い例を表示:
javascript
// ✅ 正しいテスト
expect(user.createdAt).toMatch(/^\d{4}-\d{2}-\d{2}T\d{2}:\d{2}:\d{2}Z$/);
expect(user.id).toBeGreaterThan(0);
- 「これをRuleに書きます:『テストでは動的な値検証を行い、固定値ハードコーディングを避ける』」
15-30分:セキュリティホールの作り込み
キラーフレーズ: 「AIに『SQLでユーザー情報を取得して』と言ったら、SQLインジェクション脆弱性満載のコードが出てきました。これが現実です」
実際に話す内容:
python
# ❌ 危険:SQLインジェクション脆弱性
query = f"SELECT * FROM users WHERE name = '{user_input}'"
- 「もし
user_inputに '; DROP TABLE users; -- が入ったら...」
- ハッカーの攻撃例をアニメーションで説明
- 安全なコード例:
python
# ✅ 安全:パラメータ化クエリ
cursor.execute("SELECT * FROM users WHERE name = %s", (user_input,))
- 「これもRuleに:『データベースクエリは必ずパラメータ化し、直接文字列結合を禁止』」
30-45分:パフォーマンス無視とアーキテクチャ破綻
キラーフレーズ: 「AIは『動くコード』は書けますが、『本番で耐えられるコード』は人間が考えないといけません」
実際に話す内容:
python
# ❌ O(n²)の無駄なループ
for user in users:
for order in orders:
if order.user_id == user.id:
user.orders.append(order)
- 「1000ユーザー×1000注文=100万回ループ。AIは『動けばいい』で考えるんです」
- 改善版:
python
# ✅ O(n)の効率的な処理
orders_by_user = defaultdict(list)
for order in orders:
orders_by_user[order.user_id].append(order)
- 「Rule:『O(n²)以上の計算量になる場合は最適化案を提示』」
45-60分:.clinerulesファイルの作成
キラーフレーズ: 「このRuleファイル、AIの性格を変える魔法の呪文です。これがあるかないかで、出力の品質が10倍変わります」
実際に話す内容:
# セキュリティルール
- データベースクエリは必ずパラメータ化する
- ユーザー入力は全て検証・サニタイズする
- 認証が必要なAPIには適切な認証チェックを追加
# テストルール
- テストでは固定値ハードコーディングを避ける
- エッジケースを必ず含める
- モックオブジェクトの適切な使用
# パフォーマンスルール
- O(n²)以上の処理は最適化を検討
- 不要なDB クエリは避ける
- 「これをプロジェクトルートに置くだけで、AIが『このプロジェクトのルール』を理解します」
- 実演:Ruleあり・なしでの出力比較
M6: 制御されたPlan/Actプロセス(45分)
0-10分:「いきなり書かせる」危険性
キラーフレーズ: 「AIに『ユーザー管理機能を作って』といきなり言うのは、新人に『適当にシステム作って』と丸投げするのと同じです」
理解してほしいこと:
- 仕様が曖昧なまま実装を始めると、必ず手戻りが発生
- AIは「推測」で実装するが、その推測が正しいとは限らない
- Plan → Act → Reviewの3段階で品質を担保
実際に話す内容:
- 失敗例の動画:「ECサイトを作って」→AIが勝手に決済機能まで実装→セキュリティホール満載
- 「曖昧な指示ほど危険なものはありません。AIは『分からない』とは言いません」
- 成功例:段階的に仕様を固めてから実装した場合の品質の違い
- 「Plan段階で10分使えば、Act段階の手戻りで1時間失うのを防げます」
10-25分:Planモードの効果的活用
キラーフレーズ: 「『設計を考えて』と言った時のAIの回答、これが優秀なシステムアーキテクトのそれです。無料でコンサルティングを受けているようなもの」
実際に話す内容:
- 画面録画:Clineに「ユーザー管理機能の設計を考えて」を実際に指示
- AIの回答を解説:「データベース設計、API設計、セキュリティ考慮、エラーハンドリング...全部考えてくれています」
- 実演:設計案の中の曖昧な部分を質問で明確化
- 「パスワードの暗号化方式は?」
- 「セッション管理はどうする?」
- 「権限管理はロールベース?」
- 「この段階で人間が『ここは変更』『ここは追加』と指示します」
25-40分:Actモードでの実装と制御
キラーフレーズ: 「Plan通りに実装が進んでいるか、常に監視してください。AIが『いいアイデア思いついた!』と勝手に仕様変更することがあります」
実際に話す内容:
- 実演:確定したPlanを元にActモードで実装開始
- 「ここ、重要なポイントです。AIが実装中に『こうした方がいいかも』と仕様を変更しようとします」
- 実際の画面:AIが実装中に提案してきた変更を表示
- 「『いったんストップ。Planに戻って検討しましょう』と言えるかどうかがプロの判断」
- 部分実装での動作確認:「1つのAPIができたら必ずテスト実行」
40-45分:Memory Bankとの連携
キラーフレーズ: 「Memory Bankは、AIの『プロジェクトの記憶』です。これがないと、毎回ゼロから説明することになります」
実際に話す内容:
- 画面で実演:設計決定をMemory Bankに保存
- 「なぜこの設計にしたか、どんな代替案を検討したか、全て記録しておきます」
- 実演:別のセッションでMemory Bankを参照して一貫した実装
- 「チームメンバーが変わっても、Memory Bankがあれば設計意図が伝わります」
M7: 実用ユースケース①(コードレビュー)(30分)
0-10分:AIコードレビューの可能性
キラーフレーズ: 「人間のレビューは『この変数名分かりにくい』。AIのレビューは『この実装だとメモリリークします』。どちらも大切です」
理解してほしいこと:
- AIは24時間疲れずにレビューしてくれる
- セキュリティホールやパフォーマンス問題を機械的にチェック
- 人間は設計思想やビジネスロジックをレビュー
- 併用することで漏れのないレビューが可能
実際に話す内容:
- 統計データ表示:「AIレビューで検出される問題の種類トップ10」
- 「人間が見落としがちな問題:境界値チェック、エラーハンドリング、リソースリーク」
- 実例:「私がレビューし忘れて本番で障害になった事例」
- 「コードレビューの工数が50%削減されました」という導入企業の声
10-25分:実践的なコードレビュー
キラーフレーズ: 「この関数、一見普通に見えますが...AIに見せてみましょう。『セキュリティ的に危険』『パフォーマンス改善の余地あり』即座に指摘してくれます」
実際に話す内容:
python
def get_user_data(user_id):
conn = sqlite3.connect('database.db')
cursor = conn.cursor()
query = f"SELECT * FROM users WHERE id = {user_id}"
result = cursor.execute(query).fetchall()
return result
- 実演:このコードをClineにレビュー依頼
- AIの指摘内容を読み上げ:
- 「SQLインジェクション脆弱性があります」
- 「データベース接続がクローズされていません」
- 「エラーハンドリングがありません」
- 「人間だと『動くからOK』で見過ごしがちですが、AIは容赦なく指摘します」
- 改善されたコードも生成:パラメータ化クエリ、適切なクローズ処理、try-catch
25-30分:レビュー結果の活用戦略
キラーフレーズ: 「AIのレビュー結果をそのまま鵜呑みにしてはいけません。『なぜこれが問題なのか』を理解して、チーム全体のスキルアップに繋げましょう」
実際に話す内容:
- 実例:AIが指摘した問題の優先度付け
- 「セキュリティ:即修正必須」
- 「パフォーマンス:負荷次第で対応」
- 「可読性:リファクタリング時に対応」
- Slackでのレビュー結果共有例:「今日のAIレビューで見つかった共通課題」
- 「AIレビューの結果を元に、チームの弱点を把握して勉強会のテーマにする」
M8: 実用ユースケース②(コミット文・リファクタ)(30分)
0-15分:自動コミットメッセージ作成
キラーフレーズ: 「『fix bug』『update code』なんてコミットメッセージ、もう卒業しましょう。AIが『何を』『なぜ』『どう変更したか』まで書いてくれます」
理解してほしいこと:
- 良いコミットメッセージは未来の自分とチームメンバーへの投資
- AIは変更内容を客観的に分析して適切な粒度で要約可能
- Conventional Commits準拠で一貫性のあるメッセージを自動生成
実際に話す内容:
fix bug
update
change stuff
work in progress
- 「これ、3ヶ月後に見て何をやったか分かりますか?」
- 実演:複数ファイルを変更後、Clineに「適切なコミットメッセージを考えて」
- AIが生成したメッセージ例:
feat: ユーザー認証APIにJWT実装
- POST /auth/loginエンドポイントを追加
- JWT生成・検証ロジックの実装
- ミドルウェアによる認証チェック機能
- パスワードハッシュ化にbcryptを採用
Breaking Change: 既存の認証方式から移行が必要
- 「これなら1年後でも『何をやったか』一目瞭然です」
15-30分:AI支援リファクタリング
キラーフレーズ: 「リファクタリングは『動くコード』を『美しいコード』に変える芸術です。AIは優秀な芸術家の助手になってくれます」
実際に話す内容:
javascript
function calc(a,b,c,d,e) {
if(a==1) {
if(b>c) {
return d*e+100;
} else {
if(c>50) return d*e-50;
else return d*e;
}
} else {
return 0;
}
}
- 「この関数、動きますが...メンテナンスしたくないですよね」
- 実演:Clineに「このコードをより読みやすくして、適切な関数名と変数名をつけて」
- AIがリファクタリングした結果:
javascript
function calculateOrderTotal(orderType, quantity, unitPrice, basePrice, discountThreshold) {
if (orderType !== ORDER_TYPE.PREMIUM) {
return 0;
}
const subtotal = basePrice * unitPrice;
if (quantity > unitPrice) {
return subtotal + PREMIUM_FEE;
}
const discount = quantity > discountThreshold ? BULK_DISCOUNT : 0;
return subtotal - discount;
}
- 「関数名から処理内容が分かる、変数名が意味を持つ、ロジックが明確。これがプロのコードです」
- 設計パターンの適用例:Strategy pattern、Factory patternの自動適用
- 「リファクタリング前後で必ずテストを実行。動作が変わっていないことを確認」
M9: MCP環境構築(60分)
0-15分:MCPの基本概念
キラーフレーズ: 「MCPは『AIの五感を拡張する技術』です。今までAIは目も耳も手もなかった。MCPで『ファイルを見る』『データベースに触る』『APIを呼ぶ』ができるようになります」
理解してほしいこと:
- MCP = Model Context Protocol(AIがもっと多くのデータにアクセスできる仕組み)
- 従来:人間がデータを取得してAIに渡す→MCP:AIが直接データにアクセス
- セキュリティ:AIに何をアクセス許可するかを細かく制御可能
実際に話す内容:
- アナロジー:「今までのAIは『目隠しした状態で料理しろ』と言われているようなもの」
- 図解:MCP導入前後のデータフロー比較
- 「ファイルシステム、データベース、外部API、すべてAIが直接アクセス可能」
- セキュリティ面の説明:「読み取り専用」「特定フォルダのみ」など権限設定
- 「企業導入でも安心:何にアクセスできるかは人間が完全制御」
15-35分:基本的なMCPサーバー構築
キラーフレーズ: 「設定ファイル3行書くだけで、AIがプロジェクト全体のファイルを理解できるようになります。魔法みたいでしょう?」
実際に話す内容:
json
{
"mcpServers": {
"filesystem": {
"command": "npx",
"args": ["@modelcontextprotocol/server-filesystem", "./src"],
"env": {}
}
}
}
- 「この3行で、AIが
./srcフォルダ内のすべてのファイルを読めるようになります」
- 実演:MCP接続前後でのClineの理解度の違い
- 接続前:「ファイル構造を教えて」→「分かりません」
- 接続後:「ファイル構造を教えて」→プロジェクト全体の詳細な解析
- 「ファイルの中身まで読んで、関数の依存関係まで理解してくれます」
- トラブルシューティング:よくある接続エラーとその解決法
35-55分:カスタムMCPサーバーの作成
キラーフレーズ: 「ここからが本番です。あなたの会社の独自システムに、AIを直接接続してみましょう」
実際に話す内容:
python
# database_mcp_server.py
import sqlite3
from mcp.server import MCPServer
server = MCPServer("database")
@server.call_tool("get_users")
def get_users():
conn = sqlite3.connect('company.db')
return conn.execute("SELECT * FROM users").fetchall()
- 「これでAIが『現在のユーザー数は?』と聞かれたら、直接データベースから取得できます」
- API連携MCPサーバーの例:社内Slack、GitHub、Jiraとの連携
- 実演:「今日のチケット一覧を取得して」→Jira APIから最新情報を取得
- セキュリティ設定:読み取り専用権限、IP制限、認証トークン管理
- 「MCPサーバーが増えるほど、AIがあなたの会社の『何でも知ってる同僚』になります」
55-60分:運用時の注意点
キラーフレーズ: 「MCPは強力な武器です。でも銃を持った子供にならないよう、責任を持って運用しましょう」
実際に話す内容:
- セキュリティチェックリスト表示:
- 機密データへのアクセス制限
- ログ監視とアクセス履歴
- 定期的な権限見直し
- パフォーマンス注意点:「大量データ取得時のタイムアウト設定」
- トラブル事例:「MCPサーバーが落ちてAIが使えなくなった時の対処法」
- 監視とアラート:「MCPサーバーの死活監視は必須」
M10: Advanced技術(45分)
0-20分:Git Worktreeによる並行開発
キラーフレーズ: 「『ブランチ切り替えめんどくさい』『複数の機能を同時に試したい』Git Worktreeは、その悩みを一発で解決します」
理解してほしいこと:
- 通常のgit:1つのディレクトリで1つのブランチのみ
- worktree:複数のディレクトリで複数のブランチを同時に作業可能
- AIとの相性:複数のAIエージェントが独立して作業できる
実際に話す内容:
- 困った場面の再現:「機能A開発中に緊急のバグ修正依頼」
- 従来の方法:「stash → checkout → fix → commit → checkout → stash pop」
- 実演:Git Worktreeの作成
bash
# メインプロジェクト:/project/main (mainブランチ)
# 機能開発用:/project/feature-auth (feature/authブランチ)
# バグ修正用:/project/hotfix (hotfix/payment-bugブランチ)
git worktree add ../project-feature-auth feature/auth
git worktree add ../project-hotfix hotfix/payment-bug
- 「3つのターミナル、3つのVSCodeで、3つの作業を同時進行」
- 実演:各worktreeで異なるAIタスクを並行実行
- 競合解決のコツ:「worktree間でのファイル競合をAIに解決してもらう」
20-40分:ターミナルでの複数プロセス並行実行
キラーフレーズ: 「tmuxは『ターミナルを部屋分けする技術』です。AIエージェントごとに個室を与えて、お互い邪魔せずに作業してもらいましょう」
実際に話す内容:
bash
# セッション作成と命名
tmux new-session -d -s ai-development
tmux new-window -t ai-development -n "claude-code"
tmux new-window -t ai-development -n "gemini-cli"
tmux new-window -t ai-development -n "cline-output"
- 実演:各ウィンドウで異なるAIタスクを実行
- Window1: Claude Codeでバックエンド開発
- Window2: gemini-cliでドキュメント生成
- Window3: Clineの出力監視
- 「3つのAIが同時に働いて、あなたは指揮者として全体をコントロール」
- ログ管理の工夫:
bash
# 各AIの作業ログを自動保存
claude code 2>&1 | tee claude-$(date +%Y%m%d_%H%M%S).log
- プロセス間の情報共有:「AIが生成したファイルを別のAIがレビューする流れ」
40-45分:効率化のためのワークフロー設計
キラーフレーズ: 「最適化の順番を間違えないでください。まず『何をやるか』を決めて、次に『どれを並列化できるか』を考える。技術先行は失敗の元です」
実際に話す内容:
- ワークフロー設計の思考法:
- タスクの依存関係を洗い出し
- 並列化可能な部分を特定
- ボトルネックを見つける
- 適切なツールを選択
- 実例:Webアプリ開発の並列化戦略
- 「API開発」「フロントエンド開発」「テスト作成」を同時進行
- 各担当AIの役割分担と成果物の統合方法
- 生産性測定指標:
- 作業時間の短縮率
- コード品質の維持度
- エラー発生率の変化
- 「数字で効果を証明できないと、客先や上司を説得できません」
M11: バックグラウンドエージェント(45分)
0-15分:Devinの特徴と活用場面
- 自律的なタスク実行能力の理解
- **デモ:**複雑な問題解決のアプローチ
- 人間との協調パターン
- 適用可能なタスクの見極め
15-30分:Cursorの統合開発体験
- **デモ:**AIペアプログラミングの実践
- リアルタイムコード提案の活用
- プロジェクト全体の文脈理解
- **実演:**実際の開発フロー
30-45分:ツールの使い分け戦略
- タスクの複雑さに応じた選択基準
- チーム開発での役割分担
- ROI測定と効果検証
- 将来性と投資判断
M12: 統合演習(60分)
0-10分:演習課題の設定
- 課題:「ユーザー登録・認証機能付きTodoアプリ」
- 要件定義と制約条件
- 使用技術スタックの選定
- 品質基準と完成度の定義
10-50分:実践開発
- **Phase1:**Plan作成と設計検討(10分)
- **Phase2:**環境構築とベース実装(15分)
- **Phase3:**機能実装とテスト(15分)
- **Phase4:**リファクタリングと品質向上(10分)
- 各Phaseで学んだ技術の統合活用
- 作業ログとgit管理の実践
50-60分:振り返りと改善点
- 実際に作成したアプリケーションの評価
- 使用したツールの効果測定
- 改善できる点と今後の学習計画
- 現場導入に向けた段階的計画
補足:各モジュール共通の構成要素
学習支援ツール
- **チートシート:**各モジュールの重要ポイント要約
- **トラブルシューティング集:**よくある問題と解決法
- **実践テンプレート:**すぐに使える設定ファイルやコード例
段階的習得支援
- **必須レベル:**最低限覚えるべき内容
- **推奨レベル:**業務効率化に直結する内容
- **発展レベル:**将来への投資となる内容
現場適用支援
- **即座適用:**明日から使える技術
- **1週間後:**慣れてから導入する技術
- **1ヶ月後:**チーム全体に展開する技術