type
status
date
slug
summary
tags
category
icon
password
この記事は、「生成AIパスポート試験」の対策講座の第1章「AI人工知能」に関する解説を行った内容です。以下に整理したポイントを示します。
1. 対象者
この講座は、生成AIパスポート試験を受験予定の方で、特に技術分野の対策をしたい方や、AIの基本を学びたい方を対象にしています。
2. 試験の内容とシラバス
試験のシラバスは第1章から第5章までありますが、第1章は「AI人工知能」に関する内容です。この章では以下の項目が解説されています:
- AIの定義
- AIに知識をもたらす仕組み
- AIの種類
- AIの歴史
- シンギュラリティについて
3. 人工知能の定義
人工知能(AI)は、一般的に人間の脳が行っている知的な作業をコンピュータで模倣したソフトウェアやシステムとして定義されています。しかし、AIに関する厳密な定義は確立されておらず、それぞれの人が持つAIのイメージが異なります。これにより、議論の際には、何ができるのかを正確に理解することが重要です。
4. ダートマス会議
AIに関する初めての国際会議は1956年にアメリカのダートマス大学で開催されました。この会議でジョン・マッカーシーが「人工知能」という言葉を初めて使ったことが、AIの研究において重要な出来事となりました。会議に参加した研究者たちは、後にAI研究のパイオニアとして活躍し、多くの成果を出しました。
人工知能の進化の歴史
第1次AIブーム(1950年代〜1970年代)
- 特徴: 特定の問題(例: 迷路、数学の定理証明)が注目されていた。
- 成果: 基本的な問題解決が可能だったが、複雑な現実問題には対応できなかった。
- 例: ゲーム(チェスや将棋)のようなルールが決まった問題には対応可能。
- 課題: 「おもちゃの問題」に留まり、現実の複雑な問題を解けなかった。
- 結果: 「AIの冬」の時代に突入(1970年代)。
第2次AIブーム(1980年代)
- 特徴: 知識ベース型の「エキスパートシステム」が開発される。
- 大量の専門知識をデータベースに蓄積。
- 課題: 知識の蓄積・管理が困難。
- 結果: 再び「AIの冬」の時代へ。
第3次AIブーム(2010年代〜)
- 特徴:
- ビッグデータの活用で機械学習が実用化。
- ディープラーニング(深層学習)の登場により、AIが自ら特徴量を学習可能に。
- 社会的影響: シンギュラリティ(技術的特異点)への懸念と期待が高まる。
5. AIとロボットの関係
ロボットは動作を行う「身体の部分」、AIは情報処理を行う「脳の部分」として、ロボットの中にAIが組み込まれることで、両者が協力し合って能力を発揮する仕組みです。
6. 知能の実現

1. ルールベースのアプローチ
- 専門家が「もしこうであれば、こうする」というルールを設定し、そのルールをプログラムに組み込んで、コンピューターに特定の判断や行動を教える方法。
2. 機械学習
- データからパターンを学習する方法。特に「教師あり学習」が使われ、入力データとその正解ラベルの対応を元にモデルを訓練し、未知のデータに対して予測を行います。
3. 深層学習
- ニューラルネットワークを用いて、階層的に特徴を学習する方法。複雑なタスクやデータの表現に優れ、特に画像認識や自然言語処理で多く使用されています。
これらの方法がどのように位置付けられるかについても整理されています。人工知能(AI)は最も広い範囲を持ち、その中に機械学習(ML)があり、さらにその中に深層学習(DL)が位置します。
3.人工知能(AI)の基本知識
- 定義: 人間の知的作業をコンピューターで模倣するシステムやソフトウェア
- 種類:
- レベル1: シンプルな制御プログラム (例: 家電の制御)
- レベル2: 古典的AI (例: お掃除ロボット)
- レベル3: 機械学習 (例: 検索エンジン、交通渋滞予測)
- レベル4: ディープラーニング (例: 顔認証、音声認識)
AIの学習の仕組み
AIが学習する過程では、入力されたデータ(文章、画像、音声など)に基づき、AIが自己修正を繰り返しながら学習します。例えば、間違いを訂正しながら進む過程は人間の学習方法と似ています。この学習後に得られた知識は「学習済みモデル」として扱われます。

教師あり学習と教師なし学習の違い
AIには「教師あり学習」と「教師なし学習」という2つの主要な学習方法があります。これらの違いは、データに対して「正しい答え」が与えられているかどうかにあります。
- 教師あり学習: 学習データに正解(ラベル)が与えられた状態で、AIがそのデータに基づいて学習します。例えば、入力データとそれに対応する正解ラベルを元に予測を行うモデルを訓練する方法です。
- 教師なし学習: データには正解ラベルが存在せず、AIはデータの中からパターンや構造を自ら発見します。この方法では、データの特徴を抽出したり、異常を検出することが可能です。
どちらの学習方法が優れているかは、AIを使って解決したい課題によって異なります。適切な方法を選ぶことが重要です。
教師なし学習の代表的な手法
- クラスタリング:
- クラスタリングは、似た特徴を持つデータをグループ化する手法です。例えば、K-meansクラスタリングや階層的クラスタリングなどがあります。

- 主成分分析(PCA):
- 高次元のデータを圧縮して、主要な特徴を抽出する方法です。これによりデータの可視化やノイズ除去が可能になります。
- 異常検知:
- 正常なデータと異常なデータを区別する手法です。例えば、システムの異常検知や不正行為の検出に使われます。
強化学習(教師なし学習とは異なる)
強化学習(教科学習)は、AIが試行錯誤を通じて最適な行動を学習する手法です。この学習方法では、「正解データ」が与えられない状況に適しています。AIは行動を選び、その結果として得られる「報酬」に基づいて学習します。

- 強化学習の使用例:
- ロボットの制御や自動運転、またはゲームのAI(例えば、AlphaGo)などで使用されています。
- 報酬を最大化するために、最適な行動を選択する学習を行います。

AIの課題
ノーフリーランチの定理
「ノーフリーランチの定理」は、全ての問題に対して万能な解決法は存在しないという理論です。つまり、ある学習手法が全ての問題で最適であるわけではなく、各問題に最適な方法を選ぶ必要があります。

シンボルグラウンディング問題
- 概要: 記号(シンボル)とその意味や対象をどう結びつけるか。
- 例: 「島+馬」をAIは文字列として認識するだけだが、人間は「シマウマ」を連想する。
- 課題: AIは記号の意味を理解できない。

AIの仕組み-ニューラルネットワーク
ニューラルネットワークは、人間の脳の神経細胞を模したコンピューターモデルです。脳の神経細胞(ニューロン)の構造を再現しており、入力を受けて出力を生成する仕組みを持っています。

1.人間の脳:
- 入力信号の受け取り:
- 脳の神経細胞(ニューロン)は、他のニューロンから化学的信号を受け取ります。これにより、ニューロンは細胞体で信号を加算します。これは、人工ニューラルネットワークで入力信号に重みをかけるプロセスに似ています。
- 閾値の設定:
- ニューロンが信号を「発火」するかどうかは、受け取った信号が一定の閾値を超えるかで決まります。この閾値を超えると、ニューロンは発火します。これが、人工ニューラルネットワークの活性化関数に相当します。
- 非線形性:
- 脳内のニューロンの反応は非線形です。入力信号が強くても、反応が単純に比例して増加するわけではありません。これが、人工ニューラルネットワークにおける非線形変換(活性化関数)に似ています。
- 情報伝達:
- ニューロンは脳内で「脈拍」を使って情報を伝えます。人工ニューラルネットワークも、入力信号を出力信号に変換して情報を伝達します。
結論:
脳の神経細胞と人工ニューラルネットワークは、信号の受け取り、閾値を越えるかどうかの判断、非線形反応の処理など、情報処理の方法において類似点があります。ただし、脳は非常に複雑であり、人工ニューラルネットワークはその一部を模倣しているに過ぎません。
2.AIのモデル-AIの脳の種類
1.単純パーセプトロン
1.oneニューロン
機械学習の本質------------------>勾配降下法





機械学習では、誤差を最小化するようにパラメータ(例えば w )を調整します。勾配降下法,以下の流れで行います:
- 目標:最適な w を見つけ、誤差を最小にする。
- 調整:w を少しずつ変えて誤差を確認。
- w=0.2w = 0.2: 誤差大 → ダメ!
- w=0.6w = 0.6: 誤差小 → 良い方向。
- w=0.8w = 0.8: 誤差さらに小 → 続ける。
- w=0.9w = 0.9: 誤差大 → 戻す。
- w=0.7w = 0.7: 誤差小 → さらに良い方向。
- 最適化:誤差が最小になるまで調整を続けます。
これが平均誤差(損失関数)を最小にするための学習の基本的な流れです。
損失関数は、モデルの予測と実際の値との誤差を測定するための関数です。損失関数にはいくつかの種類がありますが、一般的には以下の2つがよく使われます:
- 平均二乗誤差(MSE): 各予測誤差の平方の平均を取るもので、大きな誤差に対してより強くペナルティを与える特徴があります。具体的には、予測値と実際の値の差を二乗して平均します。
- 平均絶対誤差(MAE): 各予測誤差の絶対値の平均を取るもので、誤差の大きさをそのまま反映します。MSEのように大きな誤差に過度なペナルティは与えません。
要するに、損失関数は「予測と実際の差異(誤差)」を測り、その誤差を最小化することでモデルの精度を向上させる役割を果たします。


2.単純パーセプトロン:
現実世界の問題は、1つの入力から1つの出力を予測する単純な問題だけではなく、複数の入力を使って予測を行うような複雑なケースも多いです。たとえば、家を買うかどうかを決めるためには、面積、位置、駅までの距離など、複数の要素を考慮する必要があります。こういった複雑な問題に対応するのが単純パーセプトロンです。
単純パーセプトロンの紹介
単純パーセプトロンは、複数の入力を使って出力を予測する最も基本的なニューラルネットワークのモデルです。次のように理解できます。

1. 単純パーセプトロンの構造
単純パーセプトロンは次のような形です:
- 複数の入力(例えば、面積、位置、駅までの距離など)。入力層
- 各入力に「重み(weight)」をかけて、その重み付きの合計を計算します。
- その合計がある閾値(しきい値)を超えると、特定の出力(例えば、「家を買う」か「家を買わない」)を決定します。出力層
数式で表すと:
b は バイアス(偏置) と呼ばれるもので、モデルが出力を調整するために使われる追加のパラメータです。
このように、単純パーセプトロンでは複数の入力を組み合わせて、出力を予測することができます。
2. 具体例:家を買うかどうかの判断
例えば、家を買うかどうかを決める場合、次のような要素が考えられるかもしれません:
- x1x_1(面積)
- x2x_2(位置)
- x3x_3(駅までの距離)
これらの入力に対して、それぞれ異なる重みを付けます。たとえば、面積が広ければ家を買いたいと思うかもしれませんが、駅までの距離が長いと逆に買わないかもしれません。このように、重みを調整することで、最適な判断をするモデルを作ることができます。
例:
- x1=50x_1 = 50(面積)
- x2=3x_2 = 3(駅までの距離)
- x3=2x_3 = 2(位置:便利なエリア)
これらの入力に対して、重みを適用して合計し、最後に活性化関数を使って「家を買う」「買わない」の判断をします。
3. 活性化関数の役割
単純パーセプトロンの出力は、一般的に「0」または「1」という形で示されます。活性化関数は、入力の合計をどのように変換するかを決める役割を果たします。よく使われる活性化関数の一つにステップ関数があります。
- 合計がある閾値(例えば、10)を超えると、「1」(家を買う)を出力。
- 合計が閾値を超えない場合、「0」(家を買わない)を出力。



4. 複数の入力を考慮する場合
例えば、次のように入力が複数ある場合でも、単純パーセプトロンで対応できます:
- 面積、位置、駅までの距離など、複数の特徴をそれぞれ重みとともに加算し、その合計を使って最終的な判断をします。
現実世界の問題は、単に複数の入力を使った予測だけでなく、さらに複雑なパターン認識や分類が求められるケースが多いです。これらの複雑な問題に対応するのが多層パーセプトロン(MLP)です。
多層パーセプトロン(MLP)は、複数の層を持つニューラルネットワークで、複雑なパターン認識や分類問題を解決するために使われます。以下では、MLPの仕組みを直感的に説明します。
MLPの構成:
- 入力層:
入力層には、例えば家の面積や位置といった特徴量が入力されます。この層は、ネットワークにとっての「情報の入り口」です。
- 隠れ層:
入力層からの情報は隠れ層を通じて処理されます。隠れ層は、入力されたデータをさらに複雑な特徴に変換し、次の層に渡します。ここで使われる活性化関数(例えばReLUやシグモイド)は、データに非線形な変換を加えるため、単純な足し算や掛け算だけでなく、より複雑な関係を学習できるようになります。
- 出力層:
最終的に出力層では、モデルが解くべき問題に対する予測が行われます。例えば、家を買うかどうかの予測や、商品が売れるかどうかの予測などがこれに当たります。
MLPの流れ:
- 入力データ(例えば家の情報)を入力層に渡します。
- 入力されたデータは、隠れ層で複雑な変換が行われ、次の層に送られます。この過程で、活性化関数が非線形な変換を加えます。
- 最後に、出力層で予測結果が出力されます。
ポイント:
- 非線形な関係を学習するために、隠れ層で活性化関数を使用することが重要です。これにより、MLPは単純な線形な問題にとどまらず、複雑なデータの関係性を捉えることができます。
- 複数の層を持つことで、MLPはより多くの情報を抽象化し、深い特徴を学習することができます。各層で新たな特徴を抽出し、最終的に複雑な問題を解決する能力が向上します。
まとめ:
MLPは、複数の層を通して入力データを変換し、複雑なパターンを学習するニューラルネットワークです。活性化関数を用いることで、非線形な関係を学び、複雑な問題にも対応できる能力を持っています。

- 単純パーセプトロンに隠れ層(中間層)を追加したもの。
- 特徴
- 入力層と出力層の関係性を隠れ層で表現。
- 非線形問題を解けるようになる(線形分類に留まらない)。
- 非線形分類が可能になったことでニューラルネットワークの活用が進む。
Why
非線形分類のために隠れ層が重要な理由
- 線形モデルの限界:
- 単層の神経ネットワーク(パーセプトロン)は、データを直線や平面で分類します。しかし、複雑なデータは線形で分けられないことが多いです。
- 隠れ層の役割:
- 隠れ層を使うことで、ネットワークはデータを複数回変換し、線形で分類できないデータを非線形に分類できるようにします。隠れ層があることで、データの関係をより複雑に表現できます。
- 非線形活性化関数の重要性:
- 隠れ層では、非線形の活性化関数(ReLU、Sigmoidなど)が使われ、入力の情報が単純な線形変換ではなく、複雑な形に変換されます。この非線形変換によって、データをよりうまく分類できるようになります。
- 複雑な関係を学べる:
- 隠れ層を重ねることで、ネットワークはデータの非線形な関係を学び、より複雑なパターンを扱えるようになります。これが、深層学習が強力な理由です。
まとめ:
隠れ層と非線形活性化関数を使うことで、神経ネットワークは複雑で非線形なデータを分類できるようになります。
3. ディープラーニングとは

- 定義:隠れ層を増やしたニューラルネットワークのこと。
- 名称の由来:層が「深い(deep)」ため、「深層学習(Deep Learning)」と呼ばれる。
- 入力層: データを受け取る部分。
- 隠れ層: 複数の層で構成され、線形では解けない問題も解決可能に。
- 出力層: 最終的な結果を出力。
1. ニューラルネットワークの基本構造
ニューラルネットワークは、以下のように構成されています。
隠れ層を増やすことで、ニューラルネットワークはより複雑な問題を解けるようになります。この深い構造が「ディープラーニング(深層学習)」と呼ばれる所以です。


2. ディープラーニングの課題
1.オーバーフィッティング問題
オーバーフィッティング(Overfitting)は、機械学習モデルが訓練データに過剰に適合してしまう現象です。この結果、訓練データに対しては高い精度を示しますが、新しいデータ(テストデータや実際の環境下のデータ)に対する汎化性能が低下します。
簡単に言うと、モデルが「学びすぎて」訓練データの細部にまで対応してしまい、本来のパターンを捉えられなくなる状態です。
オーバーフィッティング問題を防ぐために、CNN、RNN、Transfomer



まとめ
咳の音を過剰に学習したAIは、実際の使用環境で不必要に咳を認識し、誤った結果を出すことがあります。これがオーバーフィッティングの問題です。
- 防止方法:
- ドロップアウト:ランダムにニューロンを削除して、モデルが複雑すぎないようにする。
- 早期終了(アーリーストッピング):誤差が大きくなり始めた時点で学習を中断する。
- 正則化:モデルに制約を加えて、過度に複雑な学習を防ぐ。


オーバーフィッティングを防ぐためには、モデルが過剰に訓練データに合わせすぎないように注意が必要です。

- 勾配消失問題:
- 誤差逆伝播法(バックプロパゲーション)で、深いネットワーク構造では誤差が正しく伝わらない。
- 特に、シグモイド関数を用いると微分値が小さくなり、情報が次第に消失。
- 出力層(後ろの層): ここでは誤差がそのまま反映されるため、パラメータの変更が比較的大きいことが多いです。
- 前層(手前の層): ここでは誤差が後ろの層から伝わってくるため、パラメータの変更が小さくなることがあります。特に深いネットワークでは、勾配消失問題が起こり、前の層のパラメータ更新が遅くなりがちです。
何故か
1. 予測と実際の値の差
まず、損失関数とは、モデルが予測した値と実際の値との差を示すものです。予測が正しければ差は小さく、間違っていれば差が大きくなります。損失関数はその「差」の大きさを数値化したものです。
2. どのように学習するか?
ニューラルネットワークは、その損失関数を最小化するために学習を行います。学習は、パラメータ(重み)を調整することによって行われます。調整の方法として「勾配降下法」が使われます。
勾配降下法では、損失関数の勾配(微分した値)を計算し、その値に従ってパラメータを調整します。勾配が大きければ大きいほど、パラメータの変更量も大きくなります。
3. どの層が重要か?
ニューラルネットワークは複数の層から成り立っています。出力層(最後の層)の誤差は直接的に損失関数に影響しますが、前の層は間接的に影響します。出力層での誤差が大きければ、それが前の層に伝わり、前の層のパラメータも調整されます。
4. 出力層と前層の違い
5. まとめ
出力層に近いほど、損失関数の影響を直接受けるため、誤差が大きいと、そのパラメータの調整が大きくなります。しかし、前層に行くにつれて、誤差が小さくなり、パラメータの調整も小さくなります。これが、深いニューラルネットワークで学習が難しくなる原因の一つです。
要点: 後ろの層は誤差の影響を受けやすく、パラメータ調整が大きく、前層は誤差が小さく伝わるため、調整が小さくなる、ということです。
4. コストかかる-転移学習
転移学習は、あるタスクで学習したモデルや知識を別の関連するタスクに応用する方法です。例えば、犬の種類を識別するモデルを作った後、その知識を猫の種類の識別に応用することができます。
例えば、犬の写真を分類するためにモデルが学んだ「犬の耳の形」や「鼻の位置」といった特徴は、猫の写真でも役立つ場合があります。このように、特徴抽出やパターン認識の部分が転用されるのです。
転移学習のメリットは以下の通りです:
- データ不足の解決:最初に学習したモデルを他のタスクに適用することで、新たに大量のデータを集める必要がなく、学習時間も短縮できます。
- コスト削減:新たなタスクに対するデータ収集や学習コストを削減することができます。
- ハルシネーション:AIが事実と異なる回答や嘘を生成してしまう現象。
ANIとAGI
以下は、ANI(Artificial Narrow Intelligence, 狭義の人工知能) と AGI(Artificial General Intelligence, 汎用人工知能) の比較表です。
項目 | ANI(狭義の人工知能) | AGI(汎用人工知能) |
定義 | 特定のタスクに特化した人工知能 | 人間のように幅広いタスクをこなせる汎用的な人工知能 |
例 | 画像認識、音声認識、チェスAI、翻訳ツール、チャットボットなど | 人間の知能レベルに匹敵し、学習、推論、問題解決を自律的に行えるAI |
スコープ | 1つまたは限定された分野のタスクに特化 | どのような分野でも適応可能 |
学習能力 | あらかじめプログラムされたタスクや与えられたデータセットでのみ学習 | 経験やデータから自律的に学習し、新しい状況に適応できる |
適応性 | 特定の環境や状況にのみ適応 | 未知の環境や多様な状況にも適応可能 |
知識の転用 | 学習した知識を他のタスクに転用できない | 一つの分野で学んだ知識を他の分野に応用可能 |
人間との比較 | 人間の特定スキルを超える場合もあるが、知的全体像では人間に及ばない | 人間の知能に近い、またはそれを超える可能性がある |
技術的達成度 | 現在広く実用化され、様々な分野で使用中 | まだ研究段階であり、実現されていない |
リスク | 制御可能なリスク(アルゴリズムのバイアスや不正確な判断など) | 制御不能なリスク(人間の価値観との乖離や安全性の懸念) |
代表的な技術 | 機械学習、深層学習、ルールベースAI | 未知の技術が必要(推論、自己意識、汎用学習など) |
倫理的課題 | 技術の使用目的や透明性、バイアスの影響に関する議論 | 人間の倫理観や価値観をどのようにプログラムするかの課題 |
補足
- 現在のAI技術のほとんどはANIに分類されます(例:ChatGPTも高度なANIの一種)。
- AGIはSF映画で描かれるような、人間のように考え、行動し、自律的に学ぶAIを指しますが、実現には大きな技術的・哲学的な壁が存在します。
- 作者:みなみ
- 链接:https://tangly1024.com/資格勉強/14cd7ae8-88e2-8038-b21e-fe0eda7b5842
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。