『AWSではじめる生成AI』
https://gyazo.com/ab864238f143e6f9fd59d6521a6541ab
2024/8/2
本書への賛辞
技術監修者まえがき
まえがき
1章 生成AIのユースケース、基礎、プロジェクトライフサイクル
1.1 ユースケースとタスク
1.2 基盤モデルとモデルハブ
1.3 生成AIプロジェクトのライフサイクル
1.4 AWSが提供する生成AI
1.5 AWSが提供する生成AIを使う利点
1.6 AWS上での生成AIアプリケーションの構築
1.7 まとめ
2章 プロンプトエンジニアリングとコンテキスト内学習
2.1 プロンプトと応答
2.2 トークン
2.3 プロンプトエンジニアリング
2.4 プロンプト構造
2.4.1 指示
2.4.2 コンテキスト
2.5 few-shot推論によるコンテキスト内学習
2.5.1 zero-shot推論
2.5.2 one-shot推論
2.5.3 few-shot推論
2.5.4 誤ったコンテキスト内学習
2.5.5 コンテキスト内学習のベストプラクティス
2.6 プロンプトエンジニアリングのベストプラクティス
2.7 推論設定パラメーター
2.8 まとめ
3章 大規模言語モデル
3.1 大規模言語モデル
3.2 トークナイザー
3.3 埋め込みベクトル
3.4.1 入力とコンテキストウィンドウ
3.4.2 埋め込み層
3.4.3 エンコーダー
3.4.4 自己注意
3.4.5 デコーダー
3.4.6 ソフトマックス出力
3.5 Transformerに基づいた基盤モデルの種別
3.6 事前学習用データセット
3.7 スケーリング則
3.8 計算最適モデル
3.9 まとめ
4章 メモリーと計算リソースの最適化
4.1 メモリー上の課題
4.2 データ型と数値精度
4.3 量子化
4.4 自己注意層の最適化
4.4.2 グループ化されたクエリーによる注意
4.5 分散コンピューティング
4.5.1 分散データ並列
4.5.2 完全シャード化データ並列
4.5.3 DDPに対するFSDPの性能比較
4.6 AWS上での分散コンピューティング
4.7 まとめ
5章 微調整と評価
5.1 指示による微調整
5.2 指示データセット
5.2.1 複数タスク指示データセット
5.2.2 FLAN:複数タスク指示データセットの例
5.2.3 プロンプトテンプレート
5.2.4 カスタムなデータセットを指示データセットへ変換する
5.3 指示による微調整の実装
5.4 評価
5.4.1 評価メトリクス
5.4.2 ベンチマークとデータセット
5.5 まとめ
6章 パラメーター効率的微調整
6.1 全パラメーター微調整とPEFTの比較
6.2.1 LoRAの基礎
6.2.2 ランク
6.2.3 対象となるモジュールと層
6.2.4 LoRAの適用
6.2.5 LoRAアダプターと元モデルのマージ
6.2.6 別々のLoRAアダプターの維持
6.2.7 全パラメーター微調整とLoRAの性能比較
6.2.8 QLoRA
6.3 プロンプト調整とソフトプロンプト
6.4 まとめ
7章 人間のフィードバックからの強化学習を用いた微調整
7.1 人間への適合:有用性、誠実性、無害性
7.2 強化学習の概要
7.3 カスタム報酬モデルの学習
7.3.1 ヒューマンインザループによる学習用データセットの収集
7.3.2 人間の評価者のためのルール例
7.3.4 報酬モデルの学習に用いる順位付けデータの準備
7.3.5 報酬モデルの学習
7.4 学習済み報酬モデル:Metaによる有害性検出器
7.5 人間のフィードバックからの強化学習による微調整
7.5.1 RLHFを用いた報酬モデルの利用
7.5.2 近接方策最適化アルゴリズム
7.5.3 PPOを用いたRLHF微調整の実行
7.5.4 報酬ハッキングを抑える
7.5.5 RLHFによるパラメーター効率的微調整の利用
7.6 RLHF微調整モデルの評価
7.6.1 定性的評価
7.6.2 定量的評価
7.6.3 評価モデルをロードする
7.6.4 評価メトリクス集計関数の定義
7.6.5 評価メトリクスの前後比較
7.7 まとめ
8章 モデルのデプロイの最適化
8.1 推論のためのモデル最適化
8.1.1 プルーニング
8.1.2 学習後の量子化としてのGPTQ
8.1.3 蒸留
8.2 大規模モデル推論コンテナ
8.3 AWS Inferentia:推論専用ハードウェア
8.4 モデルの更新とデプロイの戦略
8.4.1 A/Bテスト
8.4.2 シャドウデプロイメント
8.5 メトリクスと監視
8.6 オートスケーリング
8.6.1 オートスケーリングポリシー
8.6.2 オートスケーリングポリシーの定義
8.7 まとめ
9章 RAGとエージェントにより文脈に応じた論理的判断を行うアプリケーション
9.1 大規模言語モデルの制限
9.1.1 ハルシネーション
9.1.2 知識のカットオフ
9.2 検索拡張生成
9.2.1 外部の知識ソース
9.2.3 ドキュメントのロード
9.2.4 チャンク化
9.2.5 ドキュメント検索と再順位付け
9.2.6 プロンプト拡張
9.3 RAGのオーケストレーションと実装
9.3.1 ドキュメントのロードとチャンク化
9.3.2 埋め込みベクトルストアと検索
9.3.3 検索チェーン
9.3.4 最大限界関連性による再順位付け
9.4 エージェント
9.4.1 ReAct
9.4.2 プログラム仲介プロンプト
9.5 生成AIアプリケーション
9.6 FMOps:生成AIプロジェクトのライフサイクルを運用可能なものとする 9.6.1 実験での留意事項
9.6.2 開発での留意事項
9.6.3 本番デプロイでの留意事項
9.7 まとめ
10章 マルチモーダル基盤モデル
10.1 ユースケース
10.2 マルチモーダルプロンプトエンジニアリングのベストプラクティス
10.3 画像の生成と補正
10.3.1 画像生成
10.3.2 画像の編集と補正
10.4 インペインティング、アウトペインティング、深度情報からの画像生成
10.4.1 インペインティング
10.4.2 アウトペインティング
10.4.3 深度情報からの画像生成
10.5 画像へのキャプション追加と視覚的質問回答
10.5.1 画像へのキャプション追加
10.5.2 コンテンツモデレーション
10.5.3 視覚的質問回答
10.6 モデルの評価
10.6.1 テキストと画像の適合度
10.6.2 画像からのテキスト生成のタスク
10.6.3 非言語的な論理的判断
10.7 拡散アーキテクチャの基礎
10.8 Stable Diffusion 2アーキテクチャ
10.8.1 テキストエンコーダー
10.8.2 U-Netと拡散プロセス
10.8.3 テキスト条件付け
10.8.4 相互注意
10.8.5 スケジューラー
10.8.6 画像デコーダー
10.9 Stable Diffusion XLアーキテクチャ
10.9.1 U-Net
10.9.2 テキストエンコーダー
10.9.3 リファイナー
10.9.4 条件付け
10.10 まとめ
11.2 微調整
11.2.3 テキスト反転
11.3 人間のフィードバックからの強化学習による、人間の価値観への適合
11.4 まとめ
12.1 Amazon Bedrockの基盤モデル
12.1.1 Amazon Titan基盤モデル
12.1.2 Stability AIによるStable Diffusion基盤モデル
12.2 Amazon Bedrockの推論API
12.3 大規模言語モデル
12.3.1 SQLコードの生成
12.3.2 テキストの要約
12.3.3 埋め込み
12.4 微調整
12.5 エージェント
12.6 マルチモーダルモデル
12.6.1 テキストから画像を作成
12.6.2 画像から画像を作成
12.7 データプライバシーとネットワークセキュリティ
12.8 ガバナンスと監視
12.9 まとめ
A.1 AWSの生成AIサービススタック
A.2 Amazon Q
A.3 Amazon Q Developer
A.3.1 AWSエンジニア支援のためのAmazon Q Developer
A.3.2 統合開発環境におけるAmazon Q Developerの活用
A.3.2.1 Amazon Q Code Transformation
A.3.2.2 Amazon Q Developer Agent
A.3.3 Amazon Q Developerのカスタマイズ機能
A.3.4 Amazon Q Developerの管理者向け機能と設定
A.3.5 他のAWSサービスとの連携
A.4 Amazon Q Business
A.4.1 Amazon Q Businessの特徴
A.4.1.1 エンタープライズに最適化されたアーキテクチャ
A.4.1.2 幅広いデータソースとの連携と正確で包括的な回答生成
A.4.1.3 シンプルな導入と管理
A.4.1.4 豊富なカスタマイズオプション
A.4.2 Amazon Q Apps
A.4.2.1 ノーコードで簡単に生成AIアプリを作成
A.4.2.2 会話からアプリへのスムーズな変換
A.4.2.3 組織全体でのアプリの共有と再利用
A.4.3 Amazon Q Businessの活用シナリオ
A.4.3.1 ヘルプデスク業務の効率化と高度化
A.4.3.2 ナレッジマネジメントの推進
A.5 まとめ
訳者あとがき
索 引