ゆるいブログ

毎日おもったことや、やったことをただただ書いていくブログです

心が折れた

心が折れました

色々原因はある気はしますがなんか気持ちが折れました

原因はいくつかあって、今日だけで以下が発生して

  • 朝からしょーもない議論に付き合わされる
  • 上手くいってもだれも褒めてくれんので承認欲求が満たされない
  • ダイエットでカロリー足りてないのにジムで運動して身体が疲弊
  • つまらない会議で時間を無駄にさせられる
  • コードの過剰品質を求められる

どれがメインなのかなと考えたのですが、割と全部が同じくらい心を折ってくれた気がします。強いていうならコードの過剰品質とジムはマシな方かなと。前向きな理由ではあるので。

明日には回復していたらよいなあ

まあここのところ毎日調子が良かったので反動が来たかなと

気分転換したいけど、なにもおもいつかない。。。

褒め業

https://www.timeticket.jp/items/a/search?sort=date&p=%E8%A4%92%E3%82%81

 タイムチケットで褒め業があるなと思ってしらべてみたけど、やっぱり異性が基本っぽいし、たしかに可愛い女性に褒めてほしい感はある。

そういうときってやっぱり風俗なんやろか。。リフレとかやろか

仕事ちゅうのよもやま

 昨日に引き続き条件変数やアトミック変数、メモリバリアの理解中

つかれてるのでやっぱりすすまずー

Optimized C++ ―最適化、高速化のためのプログラミングテクニック

Optimized C++ ―最適化、高速化のためのプログラミングテクニック

 

まあでも昨日一昨日よりは集中できた感。仕事で開いていた不要なエディタやブラウザを閉じたのがよかった模様。

FEHヴァルターさん

たおせなくてつらい。パーティー育てる時間もない、やはり社会人にソシャゲは無理な気が。。。イベント追う時間もないす。。

ディープラーニングのおべんきょう

重みの初期化の方法論がいろいろあるけども、Xavierの初期値とHeの初期値を覚えておけば素人的には問題ない気がしています。

 ReLUの時にはHeの初期値を使うということで

次に学習率、最初は学習率を大きくしてだんだん小さくしていくのが理想なので、モメンタムを利用するというテクニックがある。TensorflowならGraddientDescentOptimizerと書かれていたものをMomentumOptimizerにするだけです。Kerasなら SGD の引数に momentum を指定します。また、Nesterov モメンタムを使えば次のステップでどう値が動くかを予想して学習率を設定しているらしいですが、正直よくわからん。

参考文献1 : 

www.slideshare.net

 

参考文献2

postd.cc

集中力が切れてきたので明日よみなおす