小澤昌樹氏のデータ分析コラム

  1. 第25回「近ごろの機械学習ライブラリ(2)PyTorch」

    こんにちは、小澤です。前回は、Googleの機械学習ライブラリTensorFlow / Kerasを使って、シンプルなニューラルネットワークの作り方をご紹介しました。Keras の手軽さで、深層学習の入り口としてはかなり取り組みやすいということが伝わったかと思います。今回は、もう一…

  2. 第24回「近ごろの機械学習ライブラリ(1)TensorFlow/Keras」

    こんにちは、小澤です。これまで、scikit-learnを中心に、分類・回帰・クラスタリングなど、機械学習の基本的な手法を紹介してきました。scikit-learnはシンプルな構文で高機能な機械学習を実現できる便利なライブラリであり、機械学習の第一歩として最適です。さらに、より高度…

  3. 第23回「scikit-learnの使い方(9)クラスタリング」

    こんにちは、小澤です。これまでに見てきた「分類」や「回帰」は、あらかじめ正解ラベルが与えられているデータを用いて学習を行う「教師あり学習」に分類されるものでした。一方で、「教師なし学習」は、正解ラベルのないデータからパターンや構造を見つけ出す手法を指します。その中でも特に代表的な手…

  4. 第22回「scikit-learnの使い方(8)モデルの評価」

    こんにちは、小澤です。今回は、分類モデルの評価指標の中でも特に重要な「カテゴリごとの分類精度」「予測確率の正確さ」、そして「混同行列の可視化と分析」について解説していきます。単に「正解率が何%」というだけでは、分類モデルの性能は十分に評価できません。各カテゴリに対してどの程度正確か…

  5. 第21回「scikit-learnの使い方(7)次元削減」

    こんにちは、小澤です。今回は、データ分析において重要な技術である次元削減について解説していきます。次元削減とは、データの構造を整理し、より少ない情報で本質を捉えるための手法です。大量の特徴量を持つデータを効率よく扱うために欠かせない技術であり、回帰や分類といった機械学習モデルの精度向上にも…

  6. 第20回「scikit-learnの使い方(6)回帰」

    こんにちは、小澤です。今回は、機械学習で基本として取り上げられる「回帰(Regression)」について解説していきます。回帰は連続的な数値を予測するための手法で、分類と並び、あらゆる分野で広く使われています。特に、数値予測を行う基本技術として、機械学習の中でも最も実用的な手法といえます。…

  7. 第19回「scikit-learnの使い方(5)決定木(Decision Tree)」

    こんにちは、小澤です。前回は、SVM(サポートベクターマシン)を用いた分類について解説しました。今回は、決定木(Decision Tree)を使用して、データを段階的に分割しながら分類を行う方法を説明します。なお、今回の内容は、教科書『Pythonによる新しいデータ分析の教科書(第…

  8. 第18回「scikit-learnの使い方(4)サポートベクタマシン」

    こんにちは、小澤です。前回は、教師あり学習の基本的な概念と、その主要なタスクである分類と回帰について解説しました。今回は、scikit-learnを用いてサポートベクタマシン(SVM)を実装し、データセットの分類に活用する方法を見ていきましょう。教科書『Pythonによる新しいデータ分析の…

  9. 第17回「scikit-learnの使い方(3)教師あり学習」

    こんにちは、小澤です。今回からscikit-learnを用いた分類と回帰について解説していきます。教科書『Pythonによる新しいデータ分析の教科書(第2版)』では、4.4.2章「分類」と4.4.3章「回帰」(225〜245ページ)の箇所です。分類と回帰を理解するには、その基礎となる「教師あり学習…

  10. 第16回「scikit-learnの使い方(2)カテゴリ変数のエンコーディングと特徴量の正規化」

    こんにちは、小澤です。今回も引き続き、「scikit-learn」における前処理について解説していきます。今回は、機械学習モデルの性能に大きな影響を与える2つの前処理として、「カテゴリ変数のエンコーディング」と「特徴量の正規化」を取り上げ、それぞれの実装方法と活用方法について説明します。…

PAGE TOP