【長期配信】生成AIの歩き方:モデル、アプリケーション、実装 |
受講区分 | オンライン |
---|---|
開催日時 | 2024-04-01(月) 13:00~13:00 |
講師 |
SBIホールディングス株式会社 SBI生成AI室 プロジェクトコーディネーター 兼 SBI金融経済研究所株式会社 研究主幹 副島 豊 氏 2023年6月より現職。1990年に日本銀行に入行し、金融研究所や金融市場局、金融機構局、決済機構局、調査統計局、フランクフルト事務所などで、リスク計量クオンツ業務、市場分析、マクロプルーデンス、決済システム解析や規制・制度のデザイン、景気・経済調査に従事。金融研究所長、FinTechセンター長などを歴任。1990年代よりAIやビッグデータ解析、ネットワーク分析、人工証券市場シミュレーションなど、最新の分析手法を日本銀行に導入。代表的なレポートである金融システムレポートやマーケットレビュー(日銀レビューの前身)を創刊。決済システムの国際基準やCBDCなど国際フォーラムにも参加貢献。中央銀行DXの推進役も担う。 |
概要 | 本講義シリーズでは、生成AIの基盤となっている大規模自然言語モデルを学びます。 まず、自然言語処理(NLP)がニューラルネットの技術を取り込んだことで爆発的に性能を挙げたことや代表的なモデルであるRNN、LSTM、Transformerを紹介します。 次いで、GPTシリーズなど現在の代表的なモデルがTransformerの発展形としてどのように成長してきたかを紹介します。 実践編としては、企業が自社サービスに大規模言語モデルを活用する際に必要となる秘匿情報をどのように学習させたり回答に活用するかをモデル面とインフラ面から解説します。 具体的にはRAGと呼称される技法とFine-tuningの比較を行います。最後に、OpenAIの環境を使ったデモと自分で実際にやってみる場合の環境セットアップの仕方を紹介します。 |
詳細 |
Part1. 大規模言語モデルの発展 (1)大規模言語モデルとは (2)基礎となるニューラルネットの仕組み (3)言語の数値化、word2vec Part2. 大規模言語モデルの事例 (1)RNN:Recurrent Neural Network (2)LSTM:Long Short-Term Memory (3)Transformer、Attention機構 Part3. 大規模言語モデルの急激な進化 (1)現在の代表的な大規模言語モデル (2)3つのスケール測の発見と開発方針 (3)モデルの学習方法や用途に関する技法発展 (4)RAGとFine-tuning Part4. OpenAIのGPTを用いた実践 (1)環境設定、アカウントの取得 (2)APIからGPTを動かす (3)LangChainを用いたシステム化 |
お問合わせ |
株式会社セミナーインフォ セミナー運営事務局 TEL : 03-3239-6544 FAX : 03-3239-6545 E-mail : customer@seminar-info.jp |