Livepocket 書泉と、10冊

【イベント参加券】作ってわかる大規模言語モデルの仕組み(03月30日 書泉ブックタワー開催)

特典
商品は発売日以降順次発送予定・開催当日に書籍1冊を会場にご持参ください
ISBN/JAN
9784296205257
著者
井上 顧基、下垣内 隆太、高島 直也、澤 風吹
出版社
日経BP
レーベル
出版日
2026/03/23
商品説明
ページ数 :304ページ
判型 : B5変
ChatGPTが使う大規模言語モデル(LLM)「GPT」を一から作りながら、LLMの基本から実装まで体形的に学べます!
【本書の特徴】
●Transformerの基礎からGPTモデルまで一から作りながら学べる
●「人間の意図に沿った応答」を生成するアラインメント(SFT、DPO)の仕組みを実装で学べる
●最新の推論強化モデルまでカバー

【LLMの仕組みを3段階で理解】
●図解や平易な解説で直感的に分かる
●実際に動くPyTorchコードで理解
●理論的な背景は数式で補足

Transformerモデルを作った後、GPT-2相当のLLMを実装。さらにGPT-2だけでは実現できなかった「人間の意図に沿った応答」を生成するための技術(SFT、DPO)を、実際のコードで体験します。多数のGPUを使った大規模学習をするための分散学習についてもコードを示しながら解説します。

現代の大規模言語モデルがどのように作られているのか、その本質をこの1冊で理解できます。

【目次】
第1章 大規模言語モデルの歴史と本書で得られること
 1.1 大規模言語モデル(LLM)の変遷:2017?2026
 1.2 本書の構成
 1.3 実行環境について
 1.4 本書の読み方

第2章 Transformerモデルの作成
 2.1 RNNから、Transformerまで
 2.2 アテンション機構
 2.3 アテンション以外の部品
 2.4 Transformerを作る
 2.5 Transformerの学習と推論

第3章 GPTモデルの作成
 3.1 GPTモデルの概要
 3.2 トークナイザと入力処理
 3.3 GPTモデルの学習
 3.4 他の代表的な、LLM

第4章 大規模言語モデルの学習
 4.1 データセットと前処理
 4.2 複数GPUを用いた学習の並列実行
 4.3 分散学習による事前学習
 4.4 学習の効率化(LoRA)

第5章 アラインメント
 5.1 アラインメントの基礎
 5.2 指示への追従性を向上させる学習
 5.3 人間の好みのフィードバックによる学習
 5.4 評価

第6章 推論モデル
 6.1 推論モデルとは何か
 6.2 Chain-of-Thought: 推論の基盤技術
 6.3 強化学習による推論能力の学習

付録 NumPy、PyTorch入門
備考
2026年03月30日18時30分書泉ブックタワー開催
イベント詳細ページ
https://www.shosen.co.jp/event/41153/

●受付締切:3月22日
●集合時間連絡日:3月27日

【決済方法】
●クレジットカード ※3Dセキュア2.0認証が必要となります。
●キャンセル可能期限:2営業日以内

【注意】
●イベントガイドラインはこちらをご確認ください。
●お支払いをお済ませいただきますとイベント予約完了となります。(チケットの発券はございません)
●キャンセル可能期限:2営業日以内
●他商品との同梱購入は出来ません。
●本商品は当日お渡しではございません。
●一部イベントでは発送した商品を持っていただきます。詳細は特典欄をご確認ください。
●当日は公的な本人確認書類を1点お持ちください。(例:運転免許証、健康保険証、学生証、パスポート、住民基本台帳カード、マイナンバーカードなど、コピー不可)
型番 9784296205257-071
販売価格 3,630円(税330円)
購入数

  

ピックアップ

Calendar

2026年3月
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31
2026年4月
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30
Top