SlideShare une entreprise Scribd logo
1  sur  23
Télécharger pour lire hors ligne
2022 年 12 月 12 日 (月)
小林 秀章
資料
ChatGPT は高階層の意味理解にはほど遠い?
photorealistic detailed image of the whole body of a bald bearded old man, wearing high school girl's sailor-style
uniform with a short skirt, chatting in text with an artificial intelligence in a computer science laboratory
「意味が分かる」にも階層がある
• 文章の価値や意義や面白みが自分固有の基準で評価できる
• 文章に基づいて、発信者の狙いや主張内容が分かる
• 文章に基づいて、出来事の因果的な流れが分かる
• 文の発信者の感情や主旨が分かる
• 文の表している、現実世界の状態や主張内容が分かる
• 単語の表している、現実世界の実体やカテゴリや概念が分かる
• 単語の辞書的な意味が分かる
ChatGPT は、単語の辞書的な意味は分かっているかのように応答する。
また、やりとりが、低階層の意味において、かみ合っている。
それだけでも、まあ、驚異的と言える。
あれ?
あれ?
高い階層の理解の例:
甲斐がある、無駄でない、価値がある
「意味ねーじゃん」な行為:
• 穴を掘って、すぐに埋める
• 石を積み上げて、すぐに崩す
• 紐を結んで、すぐにほどく
• 部屋を片づけて、すぐに散らかす
• 録音した音をすぐに消去する
• 数式を因数分解して、すぐに展開する
• 自分の尻尾を追って、ぐるぐる回る
• JR 山手線に 1 時間 05 分乗っていたら、元の駅に戻ってきた
• 思考が無限ループに陥った
生物は、「甲斐がある / ない」を割と気にしているはず
• 何もしていなくてもエネルギーを消費している
• 食べたものと吸った酸素を化合させてエネルギーを得ている
• 最も基本的には、次のエネルギー獲得につながらないエネルギー消費は無駄
• 自己監視する機能を備えることが重要。
• 無駄なエネルギー消費に陥っていると気がついたら、行動を変える
• それが「自意識」みたいなもの?
ChatGPT は「無駄なことはしない」に時として無頓着
• 無限ループに陥る
• 同じことを繰り返し述べる
• 数式変形がひと回りして元に戻っちゃうことがある
(因数分解しておいて、また展開、みたいな)
• 途中まで正しく進んでいた数式変形を忘れて
振り出しに戻ることがある
• ひとつのジャンルについて、総論から各論へと順を追って
知識獲得したいと思っても、話が進んでいかない
• 創作した話が展開の意外性に乏しく、あんまりおもしろくない
• 一貫した性格や生命感が感じられない
もしチューリングテストだったら、
そういうところが見破る手掛かりになりうる
日本酒を例にとって、会話してみる
デンプン ブドウ糖
ブドウ糖 アルコール
麹菌
酵母菌
日本酒は 2 段階醸造
生酛造り or 山廃仕込み
誤り。ブドウ糖を生成する。
正しい
同一表現の
使いまわし
同一表現の
使いまわし
決定的に誤り! 麹菌は澱粉を分解して葡萄糖を生成する。
葡萄糖を分解してアルコールを生成するのは酵母菌の役目。
言質を取っておいて、後で追い詰める
基本、OK
でっち上げくさい
基本、OK
でっち上げくさい
先ほどとまったく同じ質問。
先ほどは「その通りです」と答えた。
しれっ、と。
所感
• 「やった甲斐があるか」というレベルの意味理解となると、
ChatGPT はまだまだ → 今後の解決課題
• スケーリングで解決するか? → しそうもない気がする
• 「自分を監視するメタな自分」という機構が要る?
• もしここが突破できたら、自意識を備えたようにみえるのではないか?

Contenu connexe

Tendances

Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Yamato OKAMOTO
 
[DL輪読会]SlowFast Networks for Video Recognition
[DL輪読会]SlowFast Networks for Video Recognition[DL輪読会]SlowFast Networks for Video Recognition
[DL輪読会]SlowFast Networks for Video RecognitionDeep Learning JP
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language ModelsDeep Learning JP
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII
 
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use ToolsDeep Learning JP
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?hoxo_m
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)cvpaper. challenge
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformercvpaper. challenge
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解するAtsukiYamaguchi1
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説tancoro
 
【メタサーベイ】Transformerから基盤モデルまでの流れ / From Transformer to Foundation Models
【メタサーベイ】Transformerから基盤モデルまでの流れ / From Transformer to Foundation Models【メタサーベイ】Transformerから基盤モデルまでの流れ / From Transformer to Foundation Models
【メタサーベイ】Transformerから基盤モデルまでの流れ / From Transformer to Foundation Modelscvpaper. challenge
 
「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究についてMasahiro Suzuki
 
畳み込みLstm
畳み込みLstm畳み込みLstm
畳み込みLstmtak9029
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 
CNNの構造最適化手法について
CNNの構造最適化手法についてCNNの構造最適化手法について
CNNの構造最適化手法についてMasanoriSuganuma
 
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )Generative Models(メタサーベイ )
Generative Models(メタサーベイ )cvpaper. challenge
 

Tendances (20)

Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
 
[DL輪読会]SlowFast Networks for Video Recognition
[DL輪読会]SlowFast Networks for Video Recognition[DL輪読会]SlowFast Networks for Video Recognition
[DL輪読会]SlowFast Networks for Video Recognition
 
BERT入門
BERT入門BERT入門
BERT入門
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解する
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
 
【メタサーベイ】Transformerから基盤モデルまでの流れ / From Transformer to Foundation Models
【メタサーベイ】Transformerから基盤モデルまでの流れ / From Transformer to Foundation Models【メタサーベイ】Transformerから基盤モデルまでの流れ / From Transformer to Foundation Models
【メタサーベイ】Transformerから基盤モデルまでの流れ / From Transformer to Foundation Models
 
「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究について
 
畳み込みLstm
畳み込みLstm畳み込みLstm
畳み込みLstm
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
ResNetの仕組み
ResNetの仕組みResNetの仕組み
ResNetの仕組み
 
CNNの構造最適化手法について
CNNの構造最適化手法についてCNNの構造最適化手法について
CNNの構造最適化手法について
 
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )Generative Models(メタサーベイ )
Generative Models(メタサーベイ )
 

Plus de Hide Koba

LLM は数学を理解しているのか?
LLM は数学を理解しているのか?LLM は数学を理解しているのか?
LLM は数学を理解しているのか?Hide Koba
 
LLM は言葉の意味を理解しているのか?
LLM は言葉の意味を理解しているのか?LLM は言葉の意味を理解しているのか?
LLM は言葉の意味を理解しているのか?Hide Koba
 
GPT-3 の新モデル text-davince-003 を使ってみた
GPT-3 の新モデル text-davince-003 を使ってみたGPT-3 の新モデル text-davince-003 を使ってみた
GPT-3 の新モデル text-davince-003 を使ってみたHide Koba
 
もろもろの AI ツールを Windows のローカル環境にインストールする手順
もろもろの AI ツールを Windows のローカル環境にインストールする手順もろもろの AI ツールを Windows のローカル環境にインストールする手順
もろもろの AI ツールを Windows のローカル環境にインストールする手順Hide Koba
 
OpenAI の音声認識 AI「Whisper」をテストしてみた
OpenAI の音声認識 AI「Whisper」をテストしてみたOpenAI の音声認識 AI「Whisper」をテストしてみた
OpenAI の音声認識 AI「Whisper」をテストしてみたHide Koba
 
ブックレビュー: 西垣 通 『新 基礎情報学 ― 機械をこえる生命』
ブックレビュー: 西垣 通 『新 基礎情報学 ― 機械をこえる生命』ブックレビュー: 西垣 通 『新 基礎情報学 ― 機械をこえる生命』
ブックレビュー: 西垣 通 『新 基礎情報学 ― 機械をこえる生命』Hide Koba
 
無意味な文字列にも意味を見出す DALL-E
無意味な文字列にも意味を見出す DALL-E無意味な文字列にも意味を見出す DALL-E
無意味な文字列にも意味を見出す DALL-EHide Koba
 
Experiment report gpt-3_20211124ss
Experiment report gpt-3_20211124ssExperiment report gpt-3_20211124ss
Experiment report gpt-3_20211124ssHide Koba
 

Plus de Hide Koba (8)

LLM は数学を理解しているのか?
LLM は数学を理解しているのか?LLM は数学を理解しているのか?
LLM は数学を理解しているのか?
 
LLM は言葉の意味を理解しているのか?
LLM は言葉の意味を理解しているのか?LLM は言葉の意味を理解しているのか?
LLM は言葉の意味を理解しているのか?
 
GPT-3 の新モデル text-davince-003 を使ってみた
GPT-3 の新モデル text-davince-003 を使ってみたGPT-3 の新モデル text-davince-003 を使ってみた
GPT-3 の新モデル text-davince-003 を使ってみた
 
もろもろの AI ツールを Windows のローカル環境にインストールする手順
もろもろの AI ツールを Windows のローカル環境にインストールする手順もろもろの AI ツールを Windows のローカル環境にインストールする手順
もろもろの AI ツールを Windows のローカル環境にインストールする手順
 
OpenAI の音声認識 AI「Whisper」をテストしてみた
OpenAI の音声認識 AI「Whisper」をテストしてみたOpenAI の音声認識 AI「Whisper」をテストしてみた
OpenAI の音声認識 AI「Whisper」をテストしてみた
 
ブックレビュー: 西垣 通 『新 基礎情報学 ― 機械をこえる生命』
ブックレビュー: 西垣 通 『新 基礎情報学 ― 機械をこえる生命』ブックレビュー: 西垣 通 『新 基礎情報学 ― 機械をこえる生命』
ブックレビュー: 西垣 通 『新 基礎情報学 ― 機械をこえる生命』
 
無意味な文字列にも意味を見出す DALL-E
無意味な文字列にも意味を見出す DALL-E無意味な文字列にも意味を見出す DALL-E
無意味な文字列にも意味を見出す DALL-E
 
Experiment report gpt-3_20211124ss
Experiment report gpt-3_20211124ssExperiment report gpt-3_20211124ss
Experiment report gpt-3_20211124ss
 

ChatGPT は高階層の意味理解にはほど遠い?