キーワードで絞り込み
基本概念
機械学習 (Machine Learning - ML)
データから学習し、明示的にプログラミングすることなく、パターンを認識したり、予測を行ったりする能力をコンピュータシステムに与える科学分野。
基本概念
人工知能 (Artificial Intelligence - AI)
人間の知能を模倣した、学習、推論、問題解決、知覚、言語理解などの能力を持つシステムまたは機械。
機械学習の手法
深層学習 (Deep Learning - DL)
多層のニューラルネットワーク(深層ニューラルネットワーク)を用いて、データから複雑なパターンを学習する機械学習の一分野。
機械学習の手法
教師あり学習 (Supervised Learning)
入力データとそれに対応する正解ラベル(出力)のペアを用いてモデルを訓練する機械学習の手法。分類や回帰が代表的なタスク。
機械学習の手法
教師なし学習 (Unsupervised Learning)
正解ラベルが付与されていない入力データのみを用いて、データ内の隠れた構造やパターンを発見する機械学習の手法。クラスタリングや次元削減が代表的。
機械学習の手法
強化学習 (Reinforcement Learning - RL)
エージェントが環境と相互作用しながら、試行錯誤を通じて最適な行動戦略を学習する機械学習の手法。報酬を最大化するように学習を進める。
モデル・アーキテクチャ
ニューラルネットワーク (Neural Network - NN)
人間の脳の神経回路を模倣して設計された計算モデル。入力層、隠れ層、出力層から構成され、各層のニューロンが重みとバイアスによって結合されている。
モデル・アーキテクチャ
畳み込みニューラルネットワーク (Convolutional Neural Network - CNN)
画像認識や画像処理の分野で特に成功を収めている深層学習のアーキテクチャ。畳み込み層、プーリング層、全結合層などで構成される。
モデル・アーキテクチャ
リカレントニューラルネットワーク (Recurrent Neural Network - RNN)
時系列データや連続したデータ(音声、テキストなど)の処理に適したニューラルネットワーク。前のステップの情報を記憶し、現在の出力に影響を与えることができる。
モデル・アーキテクチャ
生成モデル (Generative Model)
訓練データから新しいデータサンプルを生成することを目的としたモデル。GAN(敵対的生成ネットワーク)やVAE(変分オートエンコーダ)などが代表的。
モデル・アーキテクチャ
判別モデル (Discriminative Model)
入力データがあるクラスに属するかどうかを判別することを目的としたモデル。分類タスクによく用いられる。
機械学習の課題・評価
過学習 (Overfitting)
モデルが訓練データに過度に適合しすぎた結果、未知のデータに対して汎化性能が低下してしまう状態。
機械学習の課題・評価
未学習 (Underfitting)
モデルが訓練データから十分にパターンを学習できていない状態。訓練データに対してもテストデータに対しても性能が低い。
最適化・改善手法
正則化 (Regularization)
過学習を防ぐために、モデルの複雑さを制限する手法。L1正則化、L2正則化、ドロップアウトなどがある。
最適化・評価
損失関数 (Loss Function / Cost Function)
モデルの予測値と実際の値との間の誤差を数値化したもの。訓練中にこの値を最小化するようにモデルのパラメータを調整する。
最適化・改善手法
勾配降下法 (Gradient Descent)
損失関数を最小化するために、パラメータを関数の勾配の負の方向に少しずつ更新していく最適化アルゴリズム。
ニューラルネットワークの要素
活性化関数 (Activation Function)
ニューラルネットワークの各ニューロンの出力に非線形性を導入するための関数。ReLU、Sigmoid、Softmaxなどがある。
データ処理
特徴量 (Feature)
機械学習モデルに入力されるデータの特性や属性。データセットから抽出またはエンジニアリングされる。
データ処理
特徴量エンジニアリング (Feature Engineering)
元の生データから機械学習モデルが学習しやすいように、新しい特徴量を生成するプロセス。
設定・パラメータ
ハイパーパラメータ (Hyperparameter)
機械学習モデルの学習プロセスや構造を定義するパラメータで、モデル自身が学習するものではなく、訓練前に人間が設定するもの。
機械学習の課題・評価
モデル評価指標 (Evaluation Metrics)
機械学習モデルの性能を定量的に評価するための指標。分類タスクでは精度、適合率、再現率、F1スコア、回帰タスクではRMSE、MAEなどがある。
機械学習の課題・評価
交差検証 (Cross-validation)
モデルの汎化性能をより頑健に評価するための手法。データを複数のサブセットに分割し、それぞれを訓練用と検証用に用いる。
データ処理
データ拡張 (Data Augmentation)
既存のデータセットに変換を施すことで、訓練データの量を擬似的に増やし、モデルの汎化性能を向上させる手法。画像データでは回転、反転、拡大縮小など。
機械学習の手法
転移学習 (Transfer Learning)
あるタスクで学習済みのモデルの知識を、別の関連するタスクに転用する手法。少ないデータでも高い性能を出すことが期待される。
AIの応用分野
自然言語処理 (Natural Language Processing - NLP)
人間の自然言語(テキスト、音声)をコンピュータで処理し、理解・生成・分析するAIの一分野。
AIの応用分野
コンピュータビジョン (Computer Vision - CV)
画像や動画から情報を抽出し、理解するAIの一分野。画像認識、物体検出、セグメンテーションなど。
AIの応用分野
ロボット工学 (Robotics)
ロボットの設計、構築、操作、および応用に関する学際的な分野。AIがロボットの知能や自律性を高める上で重要な役割を果たす。
AIの倫理・社会問題
倫理的AI (Ethical AI)
AIシステムの開発と利用において、公平性、透明性、説明責任、プライバシー保護などの倫理的原則を考慮すること。
AIの倫理・社会問題
説明可能なAI (Explainable AI - XAI)
AIモデルがどのように決定を下したのか、その理由を人間が理解できるように説明する技術やアプローチ。
AIのインフラ・展開
エッジAI (Edge AI)
AIの推論処理をクラウドではなく、デバイス(エッジデバイス)上で直接実行する技術。低遅延、プライバシー保護、帯域幅の節約などの利点がある。
AIの最新動向
量子機械学習 (Quantum Machine Learning - QML)
量子コンピュータの原理を用いて、機械学習アルゴリズムを開発・実装する新しい研究分野。
AIの概念・未来
汎用人工知能 (Artificial General Intelligence - AGI)
人間が実行できるあらゆる知的なタスクを、人間と同等またはそれ以上のレベルで実行できると想定されているAI。現在のAIのほとんどは特化型AIである。
AIの概念・未来
特化型人工知能 (Narrow AI / Weak AI)
特定のタスクや問題領域に特化して設計されたAI。現在のほとんどのAIシステムはこのカテゴリに属する。
モデル・アーキテクチャ
敵対的生成ネットワーク (Generative Adversarial Network - GAN)
ジェネレーターとディスクリミネーターという2つのニューラルネットワークが互いに競い合いながら学習することで、リアルなデータを生成するモデル。
モデル・アーキテクチャ
変分オートエンコーダ (Variational Autoencoder - VAE)
データの潜在表現を学習し、そこから新しいデータを生成できる生成モデルの一種。オートエンコーダに確率的な要素を加えたもの。
機械学習の手法
強化学習 (Reinforcement Learning)
エージェントが環境と相互作用し、行動によって得られる報酬を最大化するように学習する機械学習の一分野。
機械学習の手法
モデルベース強化学習 (Model-Based RL)
強化学習において、環境のモデル(状態遷移や報酬関数)を構築し、それを利用して最適な行動を学習する手法。
機械学習の手法
モデルフリー強化学習 (Model-Free RL)
強化学習において、環境のモデルを明示的に構築せず、直接行動と報酬の関係から最適な行動を学習する手法。Q学習やSARSAが代表的。
AIの応用分野
セマンティックセグメンテーション (Semantic Segmentation)
画像内の各ピクセルがどのクラス(物体カテゴリ)に属するかを分類し、ピクセル単位で領域を区別するコンピュータビジョンのタスク。
AIの応用分野
インスタンスセグメンテーション (Instance Segmentation)
画像内の各オブジェクトのインスタンスを個別に識別し、ピクセル単位でその領域を特定するコンピュータビジョンのタスク。
AIの応用分野
物体検出 (Object Detection)
画像や動画内で特定の物体がどこに存在するかを検出し、その位置をバウンディングボックスで示すコンピュータビジョンのタスク。
AIの応用分野
画像認識 (Image Recognition)
画像の内容を理解し、特定のカテゴリやオブジェクトを識別するコンピュータビジョンのタスク。
AIの応用分野
推薦システム (Recommender System)
ユーザーの過去の行動や好み、他のユーザーの行動などに基づいて、パーソナライズされたアイテム(商品、映画、ニュースなど)を推薦するシステム。
推薦システム
協調フィルタリング (Collaborative Filtering)
推薦システムで用いられる手法の一つで、ユーザー間の類似性(同じようなものを好むユーザー)やアイテム間の類似性(同じユーザーに好まれるアイテム)に基づいて推薦を行う。
推薦システム
コンテンツベースフィルタリング (Content-Based Filtering)
推薦システムで用いられる手法の一つで、ユーザーが過去に好んだアイテムの属性(コンテンツ)に基づいて、類似するアイテムを推薦する。
機械学習のタスク
回帰 (Regression)
連続値の出力を予測する機械学習タスク。株価予測や住宅価格予測など。
機械学習のタスク
分類 (Classification)
入力データを事前に定義されたカテゴリ(クラス)のいずれかに割り当てる機械学習タスク。スパムメール分類や画像中のオブジェクト識別など。
機械学習のタスク
クラスタリング (Clustering)
類似性に基づいてデータをグループ(クラスタ)に分割する教師なし学習タスク。顧客セグメンテーションなど。
機械学習のタスク
次元削減 (Dimensionality Reduction)
データの特徴量(次元)の数を減らすことで、データの可視化やノイズ削減、モデルの訓練速度向上を図る教師なし学習タスク。PCA(主成分分析)などが代表的。
データ処理
アノテーション (Annotation)
機械学習モデルの訓練のために、生データにラベルやメタデータを付与する作業。
データ処理
データセット (Dataset)
機械学習モデルの訓練、検証、テストに使用されるデータの集合体。
自然言語処理
BERT (Bidirectional Encoder Representations from Transformers)
Googleが開発した、Transformerアーキテクチャに基づく自然言語処理モデル。双方向の文脈を学習することで、高い言語理解能力を持つ。
モデル・アーキテクチャ
Transformer
主に自然言語処理の分野で用いられるニューラルネットワークのアーキテクチャ。Attentionメカニズムを核としており、並列処理に優れる。
ニューラルネットワークの要素
Attentionメカニズム (Attention Mechanism)
ニューラルネットワークが入力データの中で、特定のタスクに関連性の高い部分に「注意」を向けることを可能にするメカニズム。Transformerの基盤技術。
自然言語処理
GPT (Generative Pre-trained Transformer)
OpenAIが開発した、Transformerアーキテクチャに基づく大規模言語モデルのシリーズ。生成能力が高く、様々な自然言語生成タスクに利用される。
最適化・改善手法
ファインチューニング (Fine-tuning)
事前に大規模データで訓練されたモデル(事前学習モデル)を、特定のタスクの少量データで再訓練し、そのタスクに特化させるプロセス。
機械学習の手法
ゼロショット学習 (Zero-shot Learning)
訓練中に一度も見たことのないカテゴリのデータに対しても、推論や分類を行う能力。
機械学習の手法
フューショット学習 (Few-shot Learning)
非常に少ない訓練サンプル(数個程度)に基づいて新しいタスクを学習する能力。
AIの概念・未来
マルチモーダルAI (Multimodal AI)
画像、音声、テキストなど、複数の異なる種類のデータ(モダリティ)を組み合わせて学習し、理解・生成を行うAIシステム。
強化学習
価値関数 (Value Function)
強化学習において、ある状態から得られる将来の報酬の期待値を表す関数。最適な行動戦略を決定するために用いられる。
強化学習
方策関数 (Policy Function)
強化学習において、ある状態においてどの行動を取るべきかを示す関数。行動戦略を定義する。
強化学習
Q学習 (Q-learning)
モデルフリー強化学習の一種で、行動価値関数(Q値)を更新することで最適な方策を学習する手法。
機械学習の手法
深層強化学習 (Deep Reinforcement Learning - DRL)
深層学習と強化学習を組み合わせた技術。ニューラルネットワークを用いて状態や行動の表現を学習し、複雑な環境での問題を解決する。
AIの倫理・社会問題
アライメント問題 (Alignment Problem)
AIシステムが人間の意図や価値観と一致するように、その目標や行動を調整することに関する問題。特に汎用人工知能の開発において重要視される。
機械学習の課題・評価
バイアス (Bias)
機械学習モデルが訓練データに含まれる特定の傾向や偏りを学習してしまい、不公平な予測や判断をしてしまうこと。
AIの倫理・社会問題
公平性 (Fairness)
AIシステムが特定のグループに対して不当な差別を行わないように、偏りなく平等な結果を出すこと。
AIの倫理・社会問題
プライバシー保護 (Privacy Protection)
AIシステムが個人データを扱う際に、ユーザーのプライバシーを侵害しないようにデータを管理・利用すること。
AIのインフラ・展開
連合学習 (Federated Learning)
中央サーバーに生データを集めることなく、分散されたデバイス上で個別にモデルを訓練し、その結果を統合して全体モデルを構築する機械学習の手法。プライバシー保護に貢献する。
AIの概念・未来
シンギュラリティ (Singularity)
AIが人間の知能を超越し、技術進歩が予測不可能な速度で加速する hypothetical な時点。
モデル・アーキテクチャ
GAN (Generative Adversarial Network)
ジェネレーターとディスクリミネーターという2つのニューラルネットワークが互いに競い合いながら学習することで、リアルなデータを生成するモデル。
モデル・アーキテクチャ
VAE (Variational Autoencoder)
データの潜在表現を学習し、そこから新しいデータを生成できる生成モデルの一種。オートエンコーダに確率的な要素を加えたもの。
機械学習の手法
自己教師あり学習 (Self-Supervised Learning)
データ自体からラベルを生成し、それを用いてモデルを訓練する手法。大量のラベルなしデータから特徴量を学習するのに有効。
機械学習の手法
マルチエージェント強化学習 (Multi-Agent Reinforcement Learning - MARL)
複数のエージェントが協調的または競争的に環境と相互作用しながら、それぞれが最適な行動戦略を学習する強化学習の一分野。
強化学習
モデルベース強化学習 (Model-Based Reinforcement Learning)
環境のモデル(状態遷移や報酬関数)を明示的に学習し、それを用いて最適な行動を計画する強化学習のパラダイム。
強化学習
モデルフリー強化学習 (Model-Free Reinforcement Learning)
環境のモデルを明示的に学習せず、経験(試行錯誤)から直接最適な行動を学習する強化学習のパラダイム。
機械学習アルゴリズム
決定木 (Decision Tree)
データを属性値に基づいて分岐させ、最終的に分類や回帰の決定を行うツリー状のモデル。 interpretable で分かりやすい。
機械学習アルゴリズム
ランダムフォレスト (Random Forest)
複数の決定木を組み合わせたアンサンブル学習アルゴリズム。個々の決定木の予測を多数決(分類)または平均(回帰)することで、汎化性能を向上させる。
機械学習アルゴリズム
勾配ブースティング (Gradient Boosting)
弱い予測器(主に決定木)を順次学習し、前の予測器の誤差を補正するように次の予測器を構築していくアンサンブル学習アルゴリズム。XGBoost、LightGBMなどが有名。
機械学習アルゴリズム
サポートベクターマシン (Support Vector Machine - SVM)
データを最もよく分離する超平面を見つけることで分類や回帰を行うアルゴリズム。カーネルトリックにより非線形分離も可能。
機械学習アルゴリズム
ロジスティック回帰 (Logistic Regression)
分類問題に用いられる線形モデルの一種。入力の線形結合をシグモイド関数に通すことで、クラスに属する確率を予測する。
機械学習アルゴリズム
線形回帰 (Linear Regression)
入力変数と出力変数の間に線形関係を仮定し、データに最適な直線(または超平面)をフィットさせる回帰アルゴリズム。
機械学習アルゴリズム
k-近傍法 (k-Nearest Neighbors - k-NN)
新しいデータ点の分類や予測を、その点に最も近いk個の訓練データ点の情報に基づいて行うノンパラメトリックなアルゴリズム。
機械学習アルゴリズム
K平均法 (K-Means Clustering)
教師なし学習のクラスタリングアルゴリズムの一つ。データをk個のクラスタに分割し、各データ点が最も近いクラスタ中心に属するように繰り返す。
機械学習アルゴリズム
主成分分析 (Principal Component Analysis - PCA)
データの次元削減に用いられる教師なし学習アルゴリズム。データの分散が最大となる新しい軸(主成分)を見つけることで、元のデータを少ない次元で表現する。
機械学習アルゴリズム
隠れマルコフモデル (Hidden Markov Model - HMM)
時系列データやパターン認識に用いられる統計モデル。観測される事象の背後に隠れた状態の系列があると仮定し、その遷移確率や観測確率を学習する。
数学・統計
ベイズの定理 (Bayes' Theorem)
事前確率と尤度から事後確率を計算するための確率論の定理。ナイーブベイズ分類器などの基盤となる。
機械学習アルゴリズム
ナイーブベイズ分類器 (Naive Bayes Classifier)
ベイズの定理に基づいた確率的分類器。特徴量間に条件付き独立性があると仮定する(「ナイーブ」な仮定)。テキスト分類やスパム検出によく用いられる。
機械学習の手法
アンサンブル学習 (Ensemble Learning)
複数の弱学習器(個々のモデル)を組み合わせることで、単一のモデルよりも高い予測性能や汎化性能を目指す機械学習の手法。バギングやブースティングなどがある。
機械学習の手法
バギング (Bagging)
訓練データから複数のサブサンプルをブートストラップサンプリングで生成し、それぞれのサブサンプルで独立してモデルを訓練し、それらの予測を結合するアンサンブル学習の手法。ランダムフォレストが代表例。
機械学習の手法
ブースティング (Boosting)
複数の弱学習器を順次学習させ、前の学習器の誤りを次の学習器が補正するように重み付けしていくアンサンブル学習の手法。AdaBoost、Gradient Boostingなどが代表例。
機械学習アルゴリズム
XGBoost
勾配ブースティングのアルゴリズムを高速かつ高性能に実装したライブラリ。構造化データにおける予測タスクで広く利用される。
機械学習アルゴリズム
LightGBM
Microsoftが開発した勾配ブースティングフレームワーク。XGBoostと比較して高速な訓練と少ないメモリ使用量が特徴。
機械学習アルゴリズム
CatBoost
Yandexが開発した勾配ブースティングライブラリ。カテゴリカル特徴量の扱いが特徴的で、自動的に処理してくれる。
機械学習アルゴリズム
SVR (Support Vector Regression)
サポートベクターマシンを回帰問題に応用したアルゴリズム。
機械学習アルゴリズム
DBSCAN
密度ベースのクラスタリングアルゴリズム。密度の高い領域をクラスタとして識別し、ノイズを除外する。
機械学習アルゴリズム
GMM (Gaussian Mixture Model)
複数のガウス分布の組み合わせによってデータをモデル化する確率モデル。クラスタリングや密度推定に用いられる。
機械学習アルゴリズム
LDA (Linear Discriminant Analysis)
分類問題において、クラス間の分離度を最大化し、クラス内の分散を最小化するようにデータを変換する次元削減手法。
機械学習アルゴリズム
t-SNE (t-Distributed Stochastic Neighbor Embedding)
高次元データを低次元に埋め込み、データの構造を可視化するための非線形次元削減手法。クラスタ構造の可視化に優れる。
最適化アルゴリズム
アダム (Adam)
適応的学習率を持つ最適化アルゴリズムの一つ。勾配の一次モーメントと二次モーメントの推定値を活用し、効率的なパラメータ更新を行う。
最適化アルゴリズム
RMSProp
適応的学習率を持つ最適化アルゴリズム。勾配の二乗の移動平均を学習率の調整に用いる。
最適化アルゴリズム
Adagrad
適応的学習率を持つ最適化アルゴリズム。過去の勾配の二乗和に基づいて学習率を調整するため、頻繁に現れる特徴量に対する学習率が小さくなる。
最適化アルゴリズム
SGD (Stochastic Gradient Descent)
勾配降下法の一種で、各ステップでランダムに選ばれた1つの訓練データ(またはミニバッチ)の勾配のみを用いてパラメータを更新する最適化アルゴリズム。計算コストが低く、大規模データに強い。
AIアルゴリズム
A*アルゴリズム (A* algorithm)
グラフ探索アルゴリズムの一つで、ヒューリスティック関数を用いて最短経路を効率的に探索する。経路探索、ゲームAIなどで利用される。
AIアルゴリズム
ミニマックス法 (Minimax Algorithm)
ゲーム理論において、二人零和ゲームの最適な戦略を決定するために用いられる探索アルゴリズム。相手の最善手を考慮し、自分の最悪の損失を最小化する選択を行う。
AIアルゴリズム
アルファベータ法 (Alpha-Beta Pruning)
ミニマックス法の探索範囲を効率的に剪定する(枝刈りする)手法。ゲームAIの探索速度向上に貢献する。
AIアルゴリズム
モンテカルロ木探索 (Monte Carlo Tree Search - MCTS)
探索空間が非常に大きいゲーム(囲碁など)で用いられる探索アルゴリズム。ランダムなシミュレーションと評価を通じて、最適な手を見つける。
機械学習アルゴリズム
強化学習アルゴリズム (Reinforcement Learning Algorithms)
環境との相互作用を通じて最適な行動方策を学習するためのアルゴリズム群。Q学習、SARSA、DQN、A3C、PPOなど多岐にわたる。
強化学習アルゴリズム
Q学習 (Q-learning)
モデルフリーの強化学習アルゴリズムの一つ。行動価値関数(Q値)を更新することで、最適な行動方策を学習する。
強化学習アルゴリズム
SARSA (State-Action-Reward-State-Action)
Q学習と同様に、行動価値関数を更新する強化学習アルゴリズムだが、次にとる行動も学習中のエージェントの行動方策に従って選択される(on-policy)。
強化学習アルゴリズム
DQN (Deep Q-Network)
Q学習と深層学習を組み合わせた強化学習アルゴリズム。Q値をニューラルネットワークで近似することで、複雑な状態空間を持つタスクに対応できる。
強化学習アルゴリズム
Actor-Critic
方策関数(Actor)と価値関数(Critic)を同時に学習する強化学習アルゴリズム。Actorは行動を、Criticは評価を担当する。
強化学習アルゴリズム
A3C (Asynchronous Advantage Actor-Critic)
Actor-Criticの非同期版。複数のエージェントが並行して学習することで、訓練の安定性と効率性を向上させる。
強化学習アルゴリズム
PPO (Proximal Policy Optimization)
方策勾配法に基づく強化学習アルゴリズム。学習率の調整が難しかった方策勾配法を、より安定して学習できるように改良したもの。
モデル・アーキテクチャ
リカレントニューラルネットワーク (Recurrent Neural Network - RNN)
時系列データや連続したデータ(音声、テキストなど)の処理に適したニューラルネットワーク。前のステップの情報を記憶し、現在の出力に影響を与えることができる。
モデル・アーキテクチャ
LSTM (Long Short-Term Memory)
RNNの一種で、長期的な依存関係を学習する能力に優れる。ゲート機構(入力ゲート、忘却ゲート、出力ゲート)により、情報の保持と忘却を制御する。
モデル・アーキテクチャ
GRU (Gated Recurrent Unit)
LSTMに似たRNNの一種で、LSTMよりもゲート構造が簡略化されている。LSTMと同等の性能を発揮しつつ、計算コストが低い場合がある。
モデル・アーキテクチャ
オートエンコーダ (Autoencoder)
入力データを圧縮された低次元の潜在表現にエンコードし、そこから元のデータを再構築するよう訓練されるニューラルネットワーク。データ圧縮や次元削減、異常検知に用いられる。
モデル・アーキテクチャ
U-Net
画像セグメンテーションタスクに特化した畳み込みニューラルネットワークのアーキテクチャ。エンコーダパスとデコーダパスから構成され、スキップコネクションを持つ。
モデル・アーキテクチャ
ResNet (Residual Network)
深層学習における勾配消失問題を軽減するために考案された畳み込みニューラルネットワークのアーキテクチャ。スキップコネクション(残差接続)により、層を深くしても学習を安定させる。
モデル・アーキテクチャ
Inception Network
畳み込みニューラルネットワークのアーキテクチャ。複数の異なるサイズの畳み込みフィルタやプーリング層を並列に適用し、最適な特徴量を自動的に学習する。
モデル・アーキテクチャ
MobileNet
モバイルデバイスなどのリソース制約のある環境向けに設計された軽量な畳み込みニューラルネットワークのアーキテクチャ。深層方向分離畳み込み(Depthwise Separable Convolution)を特徴とする。
コンピュータビジョン
YOLO (You Only Look Once)
リアルタイム物体検出に特化した深層学習モデル。画像を一度の推論で処理し、複数の物体の位置とクラスを同時に予測する。
コンピュータビジョン
SSD (Single Shot Detector)
YOLOと同様に、単一のニューラルネットワークで物体検出を行うモデル。異なるスケールの特徴マップを利用して、様々なサイズの物体を検出する。
コンピュータビジョン
R-CNN (Region-based Convolutional Neural Network)
物体検出モデルの初期の成功例。領域提案とCNNによる特徴抽出、SVMによる分類を組み合わせた。
コンピュータビジョン
Fast R-CNN / Faster R-CNN
R-CNNの改良版で、物体検出の処理速度を大幅に向上させたモデル。特にFaster R-CNNは領域提案ネットワーク(RPN)を導入し、エンドツーエンドの学習を可能にした。
コンピュータビジョン
セマンティックセグメンテーション (Semantic Segmentation)
画像内の各ピクセルがどのクラス(物体カテゴリ)に属するかを分類し、ピクセル単位で領域を区別するコンピュータビジョンのタスク。
コンピュータビジョン
インスタンスセグメンテーション (Instance Segmentation)
画像内の各オブジェクトのインスタンスを個別に識別し、ピクセル単位でその領域を特定するコンピュータビジョンのタスク。
コンピュータビジョン
物体検出 (Object Detection)
画像や動画内で特定の物体がどこに存在するかを検出し、その位置をバウンディングボックスで示すコンピュータビジョンのタスク。
ニューラルネットワークの要素
Attentionメカニズム (Attention Mechanism)
ニューラルネットワークが入力データの中で、特定のタスクに関連性の高い部分に「注意」を向けることを可能にするメカニズム。Transformerの基盤技術。
ニューラルネットワークの要素
セルフアテンション (Self-Attention)
系列内の異なる位置にある要素同士の関連性を計算することで、系列全体におけるそれぞれの要素の重要度を学習するアテンションメカニズム。Transformerの核となる要素。
自然言語処理
ポジショナルエンコーディング (Positional Encoding)
Transformerモデルにおいて、単語の位置情報(順序)を表現するために埋め込みベクトルに追加される情報。
自然言語処理
ワードエンべディング (Word Embedding)
単語を低次元のベクトル空間に埋め込む手法。意味的に近い単語はベクトル空間でも近くに配置される。Word2Vec、GloVeなどが代表的。
モデル・アーキテクチャ
RNN (Recurrent Neural Network)
時系列データや連続したデータ(音声、テキストなど)の処理に適したニューラルネットワーク。前のステップの情報を記憶し、現在の出力に影響を与えることができる。
モデル・アーキテクチャ
系列変換モデル (Sequence-to-Sequence Model)
ある系列を入力とし、別の系列を出力するニューラルネットワークモデル。機械翻訳、要約、チャットボットなどに利用される。エンコーダとデコーダから構成される。
自然言語処理
アライメント (Alignment)
系列変換モデルにおいて、入力系列のどの部分が現在の出力に最も関連しているかを対応づけること。
自然言語処理
トークナイザー (Tokenizer)
自然言語処理において、テキストを単語やサブワードなどの小さな単位(トークン)に分割するツールまたはプロセス。
自然言語処理
語彙 (Vocabulary)
モデルが認識・処理できるユニークな単語またはトークンの集合。
自然言語処理
大規模言語モデル (Large Language Model - LLM)
大量のテキストデータで訓練された、非常に大規模なニューラルネットワークモデル。文章生成、翻訳、要約、質疑応答など、幅広い自然言語処理タスクを実行できる。
自然言語処理
プロンプトエンジニアリング (Prompt Engineering)
大規模言語モデルから望ましい応答を引き出すために、入力プロンプト(指示や質問)を設計・最適化する技術。
自然言語処理
インコンテキスト学習 (In-context Learning)
大規模言語モデルが、訓練中に学習した知識とは別に、プロンプト内で与えられた数少ない例から新しいタスクを学習・実行する能力。
自然言語処理
チェーン・オブ・ソート・プロンプティング (Chain-of-Thought Prompting)
大規模言語モデルに対して、最終的な答えだけでなく、その答えに至るまでの推論ステップを段階的に出力するように指示するプロンプトエンジニアリングの手法。