メインコンテンツまでスキップ

デートに結びつく Machine Learning (機械学習) の学び方

デートに結びつく Machine Learning (機械学習) の学び方

日本の学習指導要領では、まず小学校でプログラミング的思考について学び、次に中学校の技術科目と高等学校の情報科目で情報の基礎について学びます。

大学や大学院でもっと高度なコンピューターサイエンスを学んだという人も多いことでしょう。

そして、コンピュータサイエンスは大学で学ばなくとも独学で学習することも可能です。

ただし、、、

まずは数学を学ぶべし

コンピュータサイエンスを学ぼうとするなら、まず最初に数学をしっかりと学ぶべきだということを強調しておきたいと思います。数学は単なる計算の技術を超えて、コンピュータサイエンスの基礎となる論理的思考や問題解決能力を養う重要な道具です。もし、誰かから「数学は必要ない」や「数学は難しすぎるから避けたほうが良い」といったアドバイスを受けることがあったとしても、それに耳を貸すべきではありません。むしろ、そのような意見こそが、あなたの学びの道を狭めてしまう可能性があるのです。

実際、大学のコンピュータサイエンスのカリキュラムを見てみると、最も時間数を多く割いているのが数学に関する授業であることがわかります。プログラミングやデータ構造、アルゴリズムといったコンピュータサイエンスの基礎的な技術を理解するためには、数学の知識が不可欠です。例えば、アルゴリズムの効率性を評価するためには、数学的な解析能力が求められますし、データベース設計や機械学習などの高度な分野にも、数学的な理論が根底にあります。

ですから、じっくりと腰を据えて数学を学ぶことこそが、実はコンピュータサイエンスを効率よく、かつ深く理解するための最も効果的な方法であると言えます。数学を基盤にした学びは、抽象的な思考を身につけ、複雑な問題に対しても冷静にアプローチできる力を養います。そうした力を手に入れることで、コンピュータサイエンスの様々な課題を解決する際に直面するであろう困難をスムーズに乗り越えることができるのです。

結局のところ、数学を学ぶことは単なる技術的な準備にとどまらず、思考の幅を広げ、より創造的で有能なエンジニアや研究者になるための大きな一歩なのです。

とはいえ、数学やコンピュータサイエンスを学ぶ上であくまでも見失ってはいけない大切なことがあります。

それは、、、

本当に重要なのは学びをしっかりとデートに結びつけること

単に Machine Learning (機械学習) を学ぶことと、その学びをしっかりとデートに結びつけることの間には、大きなギャップがあります。

単にコンピューターサイエンスを学ぶだけなら独学で充分ですが、その学びをデートに結びつけるための努力をひとりきりで重ねようとすることは、デートの本質からして無駄な努力でしかないことに人生のできるだけ早い時期に気がついて欲しいと思います。

とりあえずここではいくつかの資料をご紹介しておきますが、もしもあなたがデートに結びつく学びに集中したいとお考えならば、ページ最下部の案内をご覧ください。

学習リソース

Machine Learning (機械学習) を網羅的に体系的に効率的に学ぶためのカリキュラム

Definition and examples of a broad variety of machine learning tasks

  • a. Supervised learning
    • i. Classification
    • ii. Regression
  • b. Reinforcement learning
  • c. Unsupervised learning
    • i. Clustering

Fundamental ideas:

  • a. No free lunch theorem: no one learner can solve all problems; representational design decisions have consequences.
  • b. Sources of error and undecidability in machine learning

A simple statistical-based supervised learning such as linear regression or decision trees

  • a. Focus on how they work without going into mathematical or optimization details; enough to understand and use existing implementations correctly

The overfitting problem/controlling solution complexity (regularization, pruning – intuition only)

  • a. The bias (underfitting) – variance (overfitting) tradeoff

Working with Data

  • a. Data preprocessing
    • i. Importance and pitfalls of preprocessing choices
  • b. Handling missing values (imputing, flag-as-missing)
    • i. Implications of imputing vs flag-as-missing
  • c. Encoding categorical variables, encoding real-valued data
  • d. Normalization/standardization
  • e. Emphasis on real data, not textbook examples

Representations

  • a. Hypothesis spaces and complexity
  • b. Simple basis feature expansion, such as squaring univariate features
  • c. Learned feature representations

Machine learning evaluation

  • a. Separation of train, validation, and test sets
  • b. Performance metrics for classifiers
  • c. Estimation of test performance on held-out data
  • d. Tuning the parameters of a machine learning model with a validation set
  • e. Importance of understanding what a model is doing, where its pitfalls/shortcomings are, and the implications of its decisions

Basic neural networks

  • a. Fundamentals of understanding how neural networks work and their training process, without details of the calculations
  • b. Basic introduction to generative neural networks (e.g., large language models)

Ethics for Machine Learning

  • a. Focus on real data, real scenarios, and case studies
  • b. Dataset/algorithmic/evaluation bias and unintended consequences

Formulation of simple machine learning as an optimization problem, such as least squares linear regression or logistic regression

  • a. Objective function
  • b. Gradient descent
  • c. Regularization to avoid overfitting (mathematical formulation)

Ensembles of models

  • a. Simple weighted majority combination

Deep learning

  • a. Deep feed-forward networks (intuition only, no mathematics)
  • b. Convolutional neural networks (intuition only, no mathematics)
  • c. Visualization of learned feature representations from deep nets
  • d. Other architectures (generative NN, recurrent NN, transformers, etc.)

Performance evaluation

  • a. Other metrics for classification (e.g., error, precision, recall)
  • b. Performance metrics for regressors
  • c. Confusion matrix
  • d. Cross-validation
    • i. Parameter tuning (grid/random search, via cross-validation)

Overview of reinforcement learning methods

Two or more applications of machine learning algorithms

  • a. E.g., medicine and health, economics, vision, natural language, robotics, game play

General statistical-based learning, parameter estimation (maximum likelihood)

Supervised learning

  • a. Decision trees
  • b. Nearest-neighbor classification and regression
  • c. Learning simple neural networks / multi-layer perceptrons
  • d. Linear regression
  • e. Logistic regression
  • f. Support vector machines (SVMs) and kernels
  • g. Gaussian Processes

Overfitting

  • a. The curse of dimensionality
  • b. Regularization (mathematical computations, L2 and L1 regularization)

Experimental design

  • a. Data preparation (e.g., standardization, representation, one-hot encoding)
  • b. Hypothesis space
  • c. Biases (e.g., algorithmic, search)
  • d. Partitioning data: stratification, training set, validation set, test set
  • e. Parameter tuning (grid/random search, via cross-validation)
  • f. Performance evaluation
    • i. Cross-validation
    • ii. Metric: error, precision, recall, confusion matrix
    • iii. Receiver operating characteristic (ROC) curve and area under ROC curve

Bayesian learning (Cross-Reference AI/Reasoning Under Uncertainty)

  • a. Naive Bayes and its relationship to linear models
  • b. Bayesian networks
  • c. Prior/posterior
  • d. Generative models

Deep learning

  • a. Deep feed-forward networks
  • b. Neural tangent kernel and understanding neural network training
  • c. Convolutional neural networks
  • d. Autoencoders
  • e. Recurrent networks
  • f. Representations and knowledge transfer
  • g. Adversarial training and generative adversarial networks
  • h. Attention mechanisms

Representations

  • a. Manually crafted representations
  • b. Basis expansion
  • c. Learned representations (e.g., deep neural networks)

Unsupervised learning and clustering

  • a. K-means
  • b. Gaussian mixture models
  • c. Expectation maximization (EM)
  • d. Self-organizing maps

Graph analysis (e.g., PageRank)

Semi-supervised learning

Graphical models (See also: AI-Probability)

Ensembles

  • a. Weighted majority
  • b. Boosting/bagging
  • c. Random forest
  • d. Gated ensemble

Learning theory

  • a. General overview of learning theory / why learning works
  • b. VC dimension
  • c. Generalization bounds

Reinforcement learning

  • a. Exploration vs exploitation tradeoff
  • b. Markov decision processes
  • c. Value and policy iteration
  • d. Policy gradient methods
  • e. Deep reinforcement learning
  • f. Learning from demonstration and inverse RL

Explainable / interpretable machine learning

  • a. Understanding feature importance (e.g., LIME, Shapley values)
  • b. Interpretable models and representations

Recommender systems

Hardware for machine learning

  • a. GPUs / TPUs

Application of machine learning algorithms to:

  • a. Medicine and health
  • b. Economics
  • c. Education
  • d. Vision
  • e. Natural language
  • f. Robotics
  • g. Game play
  • h. Data mining (Cross-reference DM/Data Analytics)

【重要】デート相手に不自由しない人生を楽しみたいあなたへ

世の中にはせっかくMachine Learning (機械学習)を学んでもそれを〈お互いに時間を共有することが有意義だと感じられるデート〉に結びつけられない学び方で時間を無駄にしている人たちも数多くいます

私たちは〈お互いに時間を共有することが有意義だと感じられるデート〉に結びつく学びを真摯に積み重ねることで、デート相手に不自由しない人生を謳歌してきました

あなたもデート大学で〈お互いに時間を共有することが有意義だと感じられるデート〉に結びつく学びに集中してデート相手に不自由しない人生を楽しんでみませんか?

今日、新たな一歩を踏み出そう

「デート相手に不自由しない人生を送りたい。」
そう願いながらも、思うようにいかず、今の毎日を変えたいと感じている方も多いのではないでしょうか。
もし今、少しでも心に迷いや不安があるのなら、どうぞ一度ご相談ください。
「デートに結びつく学び」が、あなたの毎日をどう変えていくのか——
その第一歩を踏み出すきっかけになれたら、私たちは嬉しく思います。

デートに関するお悩み・ご不安お聞かせください
無料相談のご予約
今の学校の勉強や仕事を続けたままで学ぶことができます