2021-06-01から1ヶ月間の記事一覧

深層学習DAY1確認テスト

Section1:入力層〜中間層 確認テスト:動物分類の実例を入れてみよう。 確認テスト:この数式をPythonでかけ。 u1 = np.dot(x,W1) + b 確認テスト:1−1のがいるから中間層の出力を定義しているソースを抜き出せ。 # 2層の総入力 u2 = np.dot(z1, W2) + b2…

深層学習DAY1要約

Section1 入力層〜中間層 ・入力を受け取る場所をノードと呼ぶ ・入力に対し、それぞれ重みを乗算し、線型結合する。それにより重要な情報は値を大きく、関係のないものは値を小さくすることができる。 ・バイアスは一次関数でいうと、切片にあたる。 ・入力…

機械学習まとめ

要約まとめ shishi11-challenge.hatenablog.com 実装演習まとめ github.com

機械学習

機械学習とは タスクT(アプリケーションにさせたいこと)を性能指標Pで測定し、その性能が経験E(データ)により改善される場合、タスクTおよび性能指標Pに関して経験Eから学習すると言われている。 ■線形回帰モデル タスクT:回帰問題 経験E:教師あり学習 …

応用数学まとめ

ishishi11-challenge.hatenablog.com ishishi11-challenge.hatenablog.com ishishi11-challenge.hatenablog.com

情報理論

■自己情報量 事象Aの起こる確率がP(A)である時、事象Aが起こることの自己情報量は、I(A)=-log2P(A)によって定義される ■エントロピー 確率変数Xにおいて、X=xとなる確率がP(x)で与えられている時、確率変数Xのエントロピーは以下で与えられる。 エントロピー…

情報理論

■自己情報量 事象Aの起こる確率がP(A)である時、事象Aが起こることの自己情報量は、I(A)=-log2P(A)によって定義される ■エントロピー 確率変数Xにおいて、X=xとなる確率がP(x)で与えられている時、確率変数Xのエントロピーは以下で与えられる。 エントロピー…

確率・統計

■条件付き確率 ある事象Xが起きるという条件の元で、事象Yが起こる確率。 P(Y|X)=P(X∩Y)/P(X) 最初はなぜP(X)が分母に来るのか分からなかったが、ベン図を書いてみると理解ができた。 ベイズの定理に繋がる大事な公式。条件付き確率を変形し、導くことが出…

線形代数学

この記事はStudy-AI社、ラビットチャレンジのレポートを目的として執筆しています。 ■ベクトルとスカラー ・スカラー:値の大小のみを示すもの 例)温度、質量、面積、長さetc... ・ベクトル:値の大きさ、向きなど2つの情報を持つもの 例)力、運動量、速…