sudo apt upgrade
を入力すると、
grub-pc (2.02~beta2-36ubuntu3.14) を設定しています ...
/var/lib/dpkg/info/grub-pc.config: 15: /etc/default/grub: GRUB_SAVEDEFAULT:GRUB_SAVEDEFAULT=true: not found
パッケージ grub-pc の処理中にエラーが発生しました
というエラーメッセージが表示される。
etc/defaut/grub中の
GRUB_DEFAULT=saved
GRUB_SAVEDEFAULT:GRUB_SAVEDEFAULT=true
の先頭にコメントアウトを下記のようにつけると、無事、upgradeできた。
#GRUB_DEFAULT=saved
#GRUB_SAVEDEFAULT:GRUB_SAVEDEFAULT=true
2017年12月29日金曜日
2017年12月12日火曜日
2017年11月4日土曜日
2017年10月26日木曜日
Tensorflowでの警告メッセージの消し方
Tensorflowにおいて、スクリプトを実行すると、「CPU拡張命令セットが使えますよ」的なメッセージがでるので、それを消すためにはスクリプトに下記の命令を書いておく。
import os
os.environ[ 'TF_CPP_MIN_LOG_LEVEL'] = '2'
import os
os.environ[ 'TF_CPP_MIN_LOG_LEVEL'] = '2'
2017年10月17日火曜日
Tensorflow mnistデータの演習
参考ホームページから、下記コードをJupyter notebookにコピペして走らせてみる。
0
31
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
import tensorflow as tf
x = tf.placeholder(tf.float32, [None, 784])
W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))
y = tf.nn.softmax(tf.matmul(x, W) + b)
y_ = tf.placeholder(tf.float32, [None, 10])
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)
init = tf.initialize_all_variables()
sess = tf.Session()
sess.run(init)
for i in range(1000):
batch_xs, batch_ys = mnist.train.next_batch(100)
sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}))
「得られた結果」
0
31
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
import tensorflow as tf
x = tf.placeholder(tf.float32, [None, 784])
W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))
y = tf.nn.softmax(tf.matmul(x, W) + b)
y_ = tf.placeholder(tf.float32, [None, 10])
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)
init = tf.initialize_all_variables()
sess = tf.Session()
sess.run(init)
for i in range(1000):
batch_xs, batch_ys = mnist.train.next_batch(100)
sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}))
「得られた結果」
Successfully downloaded train-images-idx3-ubyte.gz 9912422 bytes.
Extracting MNIST_data/train-images-idx3-ubyte.gz
Successfully downloaded train-labels-idx1-ubyte.gz 28881 bytes.
Extracting MNIST_data/train-labels-idx1-ubyte.gz
Successfully downloaded t10k-images-idx3-ubyte.gz 1648877 bytes.
Extracting MNIST_data/t10k-images-idx3-ubyte.gz
Successfully downloaded t10k-labels-idx1-ubyte.gz 4542 bytes.
Extracting MNIST_data/t10k-labels-idx1-ubyte.gz
WARNING:tensorflow:From D:\Users\shige\Anaconda3\lib\site-packages\tensorflow\python\util\tf_should_use.py:170: initialize_all_variables (from tensorflow.python.ops.variables) is deprecated and will be removed after 2017-03-02.
Instructions for updating:
Use `tf.global_variables_initializer` instead.
0.9169
参考リンク(MNIST for ML beginners)
2017年10月14日土曜日
2017年10月12日木曜日
Anacondaで異なる環境を立ち上げる方法
Anaconda Navigatorで真ん中上部のタブを「Not installed」にして、jupyter関連のプログラムをインストールする。そうすると、Environmentsの好きな環境のところをクリックすると「Open with JupyterNotebook」を選択できるようになる。
AnacondaへのTensorflowインストール(Windows)
Windows版アナコンダには、Tensorflowが入っていないので、JupyterNotebookから
import tensorflow as tf
と打つと、
ModuleNotFoundError: No module named 'tensorflow'と返される。
そこで、Anacondaのプログラムから「Anaconda Navigator」を立ち上げて、真ん中上部のタブ「installed」から「Not installed」を選ぶ。その後は、tensorflowにチェックをつけてapplyボタンを押す。
import tensorflow as tf
と打つと、
ModuleNotFoundError: No module named 'tensorflow'と返される。
そこで、Anacondaのプログラムから「Anaconda Navigator」を立ち上げて、真ん中上部のタブ「installed」から「Not installed」を選ぶ。その後は、tensorflowにチェックをつけてapplyボタンを押す。
2017年10月3日火曜日
2017年8月30日水曜日
2017年8月26日土曜日
2017年8月12日土曜日
2017年7月27日木曜日
Xbench on Macbook Pro (2013)
System Info
Xbench Version 1.3
System Version 10.12.6 (16G29)
Physical RAM 8192 MB
Model MacBookPro10,2
Drive Type Macintosh HD
CPU Test 269.68
GCD Loop 316.94 16.71 Mops/sec
Floating Point Basic 207.27 4.92 Gflop/sec
vecLib FFT 219.67 7.25 Gflop/sec
Floating Point Library 434.73 75.70 Mops/sec
Thread Test 781.17
Computation 781.17 15.83 Mops/sec, 4 threads
Memory Test 561.11
System 553.98
Allocate 1945.47 7.14 Malloc/sec
Fill 386.76 18805.23 MB/sec
Copy 431.83 8919.28 MB/sec
Stream 568.42
Copy 550.18 11363.79 MB/sec
Scale 566.94 11712.87 MB/sec
Add 578.64 12326.37 MB/sec
Triad 578.90 12383.99 MB/sec
Quartz Graphics Test 55.08
Line 85.10 5.67 Klines/sec [50% alpha]
Rectangle 35.27 10.53 Krects/sec [50% alpha]
Circle 45.28 3.69 Kcircles/sec [50% alpha]
Bezier 83.89 2.12 Kbeziers/sec [50% alpha]
Text 60.03 3.76 Kchars/sec
OpenGL Graphics Test 233.38
Spinning Squares 233.38 296.06 frames/sec
User Interface Test 14.15
Elements 14.15 64.94 refresh/sec
Disk Test 436.94
Sequential 281.20
Uncached Write 691.19 424.38 MB/sec [4K blocks]
Uncached Write 444.39 251.43 MB/sec [256K blocks]
Uncached Read 113.17 33.12 MB/sec [4K blocks]
Uncached Read 591.13 297.10 MB/sec [256K blocks]
Random 979.35
Uncached Write 820.55 86.86 MB/sec [4K blocks]
Uncached Write 747.46 239.29 MB/sec [256K blocks]
Uncached Read 2118.89 15.02 MB/sec [4K blocks]
Uncached Read 947.11 175.74 MB/sec [256K blocks]
Xbench Version 1.3
System Version 10.12.6 (16G29)
Physical RAM 8192 MB
Model MacBookPro10,2
Drive Type Macintosh HD
CPU Test 269.68
GCD Loop 316.94 16.71 Mops/sec
Floating Point Basic 207.27 4.92 Gflop/sec
vecLib FFT 219.67 7.25 Gflop/sec
Floating Point Library 434.73 75.70 Mops/sec
Thread Test 781.17
Computation 781.17 15.83 Mops/sec, 4 threads
Memory Test 561.11
System 553.98
Allocate 1945.47 7.14 Malloc/sec
Fill 386.76 18805.23 MB/sec
Copy 431.83 8919.28 MB/sec
Stream 568.42
Copy 550.18 11363.79 MB/sec
Scale 566.94 11712.87 MB/sec
Add 578.64 12326.37 MB/sec
Triad 578.90 12383.99 MB/sec
Quartz Graphics Test 55.08
Line 85.10 5.67 Klines/sec [50% alpha]
Rectangle 35.27 10.53 Krects/sec [50% alpha]
Circle 45.28 3.69 Kcircles/sec [50% alpha]
Bezier 83.89 2.12 Kbeziers/sec [50% alpha]
Text 60.03 3.76 Kchars/sec
OpenGL Graphics Test 233.38
Spinning Squares 233.38 296.06 frames/sec
User Interface Test 14.15
Elements 14.15 64.94 refresh/sec
Disk Test 436.94
Sequential 281.20
Uncached Write 691.19 424.38 MB/sec [4K blocks]
Uncached Write 444.39 251.43 MB/sec [256K blocks]
Uncached Read 113.17 33.12 MB/sec [4K blocks]
Uncached Read 591.13 297.10 MB/sec [256K blocks]
Random 979.35
Uncached Write 820.55 86.86 MB/sec [4K blocks]
Uncached Write 747.46 239.29 MB/sec [256K blocks]
Uncached Read 2118.89 15.02 MB/sec [4K blocks]
Uncached Read 947.11 175.74 MB/sec [256K blocks]
Xbench on Macbook Pro (2016)
System Info
Xbench Version 1.3
System Version 10.12.5 (16F73)
Physical RAM 8192 MB
Model MacBookPro13,1
Drive Type Macintosh HD
CPU Test 290.79
GCD Loop 255.16 13.45 Mops/sec
Floating Point Basic 211.25 5.02 Gflop/sec
vecLib FFT 288.99 9.53 Gflop/sec
Floating Point Library 608.80 106.01 Mops/sec
Thread Test 1023.99
Computation 1023.99 20.74 Mops/sec, 4 threads
Memory Test 649.87
System 826.17
Allocate 1983.60 7.28 Malloc/sec
Fill 525.53 25552.70 MB/sec
Copy 816.81 16870.85 MB/sec
Stream 535.59
Copy 809.04 16710.37 MB/sec
Scale 472.79 9767.68 MB/sec
Add 660.22 14064.03 MB/sec
Triad 384.22 8219.42 MB/sec
Quartz Graphics Test 70.69
Line 90.45 6.02 Klines/sec [50% alpha]
Rectangle 47.21 14.09 Krects/sec [50% alpha]
Circle 59.66 4.86 Kcircles/sec [50% alpha]
Bezier 97.29 2.45 Kbeziers/sec [50% alpha]
Text 87.31 5.46 Kchars/sec
OpenGL Graphics Test 254.42
Spinning Squares 254.42 322.74 frames/sec
User Interface Test 16.13
Elements 16.13 74.02 refresh/sec
Disk Test 1455.77
Sequential 881.11
Uncached Write 1663.52 1021.37 MB/sec [4K blocks]
Uncached Write 781.12 441.96 MB/sec [256K blocks]
Uncached Read 448.36 131.21 MB/sec [4K blocks]
Uncached Read 2336.34 1174.23 MB/sec [256K blocks]
Random 4185.71
Uncached Write 2594.80 274.69 MB/sec [4K blocks]
Uncached Write 2902.98 929.35 MB/sec [256K blocks]
Uncached Read 16104.06 114.12 MB/sec [4K blocks]
Uncached Read 6109.63 1133.69 MB/sec [256K blocks]
Xbench Version 1.3
System Version 10.12.5 (16F73)
Physical RAM 8192 MB
Model MacBookPro13,1
Drive Type Macintosh HD
CPU Test 290.79
GCD Loop 255.16 13.45 Mops/sec
Floating Point Basic 211.25 5.02 Gflop/sec
vecLib FFT 288.99 9.53 Gflop/sec
Floating Point Library 608.80 106.01 Mops/sec
Thread Test 1023.99
Computation 1023.99 20.74 Mops/sec, 4 threads
Memory Test 649.87
System 826.17
Allocate 1983.60 7.28 Malloc/sec
Fill 525.53 25552.70 MB/sec
Copy 816.81 16870.85 MB/sec
Stream 535.59
Copy 809.04 16710.37 MB/sec
Scale 472.79 9767.68 MB/sec
Add 660.22 14064.03 MB/sec
Triad 384.22 8219.42 MB/sec
Quartz Graphics Test 70.69
Line 90.45 6.02 Klines/sec [50% alpha]
Rectangle 47.21 14.09 Krects/sec [50% alpha]
Circle 59.66 4.86 Kcircles/sec [50% alpha]
Bezier 97.29 2.45 Kbeziers/sec [50% alpha]
Text 87.31 5.46 Kchars/sec
OpenGL Graphics Test 254.42
Spinning Squares 254.42 322.74 frames/sec
User Interface Test 16.13
Elements 16.13 74.02 refresh/sec
Disk Test 1455.77
Sequential 881.11
Uncached Write 1663.52 1021.37 MB/sec [4K blocks]
Uncached Write 781.12 441.96 MB/sec [256K blocks]
Uncached Read 448.36 131.21 MB/sec [4K blocks]
Uncached Read 2336.34 1174.23 MB/sec [256K blocks]
Random 4185.71
Uncached Write 2594.80 274.69 MB/sec [4K blocks]
Uncached Write 2902.98 929.35 MB/sec [256K blocks]
Uncached Read 16104.06 114.12 MB/sec [4K blocks]
Uncached Read 6109.63 1133.69 MB/sec [256K blocks]
2017年7月22日土曜日
gnuplot インストール on mac
gnuplotインストールの手順
1: Xcodeインストール
2: Macportsインストール
Macportsのホームページから、パッケージファイルをダウンロードしてクリック。
3: gnuplotインストール
$sudo port -v selfupdate
$sudo port install gnuplot
参考リンク
1: Xcodeインストール
2: Macportsインストール
Macportsのホームページから、パッケージファイルをダウンロードしてクリック。
3: gnuplotインストール
$sudo port -v selfupdate
$sudo port install gnuplot
参考リンク
2017年7月13日木曜日
2017年5月29日月曜日
2017年5月9日火曜日
2017年4月27日木曜日
word2vecのオプション
/usr/local/bin/word2vec -train jawiki_data.txt -output jawiki_data.bin -cbow 0 -size 200 -window 5 -negative 0 -hs 1 -sample 1e-3 -binary 1
-train:学習させるデータ。半角スペースで区切られた単語列。1行ごとに文脈ベクトルの処理対象となる。
-output:文脈ベクトルの出力先ファイル
-cbow:Bags of words Modelを使用するときには1と指定する。defaultは1となっており、Skip-gram modelを使用する時は0とする。
-size:文脈ベクトルの次元サイズ(defaultは100)
-window:文脈ベクトルを計算する際に、対象語から調べる前後の語の数。defaultは5となっている。大きな値を指定すると、より広範囲の語まで処理対象とする。
-negative:Negative Samplingで用いる例の数。defaultは5となっており、妥当な値の範囲は3から10となっている。0を指定するとNegative Samplingを行わない。
-hs:学習にHierarchical Softmaxを用いて計算させたい場合に1と指定する。defaultは0。
-sample:Hierarchical Softmaxの際に頻出語をカットするスレッシュホールドを指定する。defaultは1e-3となっており、妥当な値の範囲は0から1e-5となっている。
-binary:Binary形式で出力したい場合に1と指定する。defaultは0となっており、テキスト形式で出力される。
参考リンク:word2vecのオプション一覧
http://repository.seinan-gu.ac.jp/bitstream/handle/123456789/1302/co-n62v3_4-p263-284-yos.pdf?sequence=1
-train:学習させるデータ。半角スペースで区切られた単語列。1行ごとに文脈ベクトルの処理対象となる。
-output:文脈ベクトルの出力先ファイル
-cbow:Bags of words Modelを使用するときには1と指定する。defaultは1となっており、Skip-gram modelを使用する時は0とする。
-size:文脈ベクトルの次元サイズ(defaultは100)
-window:文脈ベクトルを計算する際に、対象語から調べる前後の語の数。defaultは5となっている。大きな値を指定すると、より広範囲の語まで処理対象とする。
-negative:Negative Samplingで用いる例の数。defaultは5となっており、妥当な値の範囲は3から10となっている。0を指定するとNegative Samplingを行わない。
-hs:学習にHierarchical Softmaxを用いて計算させたい場合に1と指定する。defaultは0。
-sample:Hierarchical Softmaxの際に頻出語をカットするスレッシュホールドを指定する。defaultは1e-3となっており、妥当な値の範囲は0から1e-5となっている。
-binary:Binary形式で出力したい場合に1と指定する。defaultは0となっており、テキスト形式で出力される。
参考リンク:word2vecのオプション一覧
http://repository.seinan-gu.ac.jp/bitstream/handle/123456789/1302/co-n62v3_4-p263-284-yos.pdf?sequence=1
LXDEの解像度を起動時に変更する
LXDEの解像度をGUIで変更したつもりになっても、次回起動時は元に 戻ってしまっている。毎回解像度を変更するのは鬱陶しいので、
/etc/xdg/lxsession/LXDE/autostart に
xrandr -s 1920x1080
の一行を追加すると、次の起動時から解像度が1920x1080となる
2017年4月24日月曜日
wikipediaをダウンロードしてword2vecを試すまでの手順
1.wikipediaのデータを取ってくる。
curl https://dumps.wikimedia.org/jawiki/latest/jawiki-latest-pages-articles.xml.bz2 -o jawiki-latest-pages-articles.xml.bz2
2.テキストデータへの変換を行う。
git clone https://github.com/attardi/wikiextractor
python3 wikiextractor/WikiExtractor.py jawiki-latest-pages-articles.xml.bz2
3.ここまでやるとtextディレクトリが作成されているので、ここの情報を一つにまとめるために以下の処理を行う。
cat text/*/* > jawiki.txt
4.mecabのインストール
5.mecabで分かち書き(mecabエラー)
「mecab -Owakati jawiki.txt -o jawiki_data.txt」
としたところ、
「input-buffer overflow. The line is split. use -b #SIZE option.」
とエラーが出た。
そこで、バッファーを大きくして
「mecab -b 81920 -Owakati jawiki.txt > jawiki_data.txt」
6.word2vecで機械学習
/usr/local/bin/word2vec -train jawiki_data.txt -output jawiki_data.bin -cbow 0 -size 200 -window 5 -negative 0 -hs 1 -sample 1e-3 -binary 1
7.word2vecで計算
/usr/local/bin/word2vec-distance jawiki_data.bin
curl https://dumps.wikimedia.org/jawiki/latest/jawiki-latest-pages-articles.xml.bz2 -o jawiki-latest-pages-articles.xml.bz2
2.テキストデータへの変換を行う。
git clone https://github.com/attardi/wikiextractor
python3 wikiextractor/WikiExtractor.py jawiki-latest-pages-articles.xml.bz2
3.ここまでやるとtextディレクトリが作成されているので、ここの情報を一つにまとめるために以下の処理を行う。
cat text/*/* > jawiki.txt
4.mecabのインストール
5.mecabで分かち書き(mecabエラー)
「mecab -Owakati jawiki.txt -o jawiki_data.txt」
としたところ、
「input-buffer overflow. The line is split. use -b #SIZE option.」
とエラーが出た。
そこで、バッファーを大きくして
「mecab -b 81920 -Owakati jawiki.txt > jawiki_data.txt」
6.word2vecで機械学習
/usr/local/bin/word2vec -train jawiki_data.txt -output jawiki_data.bin -cbow 0 -size 200 -window 5 -negative 0 -hs 1 -sample 1e-3 -binary 1
7.word2vecで計算
/usr/local/bin/word2vec-distance jawiki_data.bin
2017年3月28日火曜日
2017年3月8日水曜日
word2vecの動かし方
【mecabのインストールと分かち書き】
$ sudo apt-get install mecab libmecab-dev mecab-ipadic
$ sudo apt-get install mecab-ipadic-utf8
$ sudo apt-get install python-mecab
echo "$(<jawiki.txt)" | mecab -F"%f[6] " -U"%m " -E"\n" > jawiki_data.txt
【word2vecの動かし方】
./word2vec -train input-wakati.txt -output jawiki_data.bin -cbow 0 -size 200 -window 5 -negative 0 -hs 1 -sample 1e-3 -binary 1
その後、以下のコマンドで動いた
/usr/local/bin/word2vec-distance jawiki_data.model
【word2vecのコマンド】
word2phrase, word2vec, word2vec-compute-accuracy, word2vec-distance, word2-doc2vec, word2vec-word-analogy
$ sudo apt-get install mecab libmecab-dev mecab-ipadic
$ sudo apt-get install mecab-ipadic-utf8
$ sudo apt-get install python-mecab
echo "$(<jawiki.txt)" | mecab -F"%f[6] " -U"%m " -E"\n" > jawiki_data.txt
【word2vecの動かし方】
./word2vec -train input-wakati.txt -output jawiki_data.bin -cbow 0 -size 200 -window 5 -negative 0 -hs 1 -sample 1e-3 -binary 1
その後、以下のコマンドで動いた
/usr/local/bin/word2vec-distance jawiki_data.model
【word2vecのコマンド】
word2phrase, word2vec, word2vec-compute-accuracy, word2vec-distance, word2-doc2vec, word2vec-word-analogy
2017年3月2日木曜日
word2vecのインストール
sudo apt install python3-pip
pip3 install numpy
pip3 install scipy
下の3つは単純にpip3ではインストールできない。
また、cythonが入っていないとword2vecはインストールできないみたい。
sudo -E pip3 install gensim
sudo -E pip3 install cython
sudo -E pip3 install word2vec
pip3 install numpy
pip3 install scipy
下の3つは単純にpip3ではインストールできない。
また、cythonが入っていないとword2vecはインストールできないみたい。
sudo -E pip3 install gensim
sudo -E pip3 install cython
sudo -E pip3 install word2vec
2017年2月26日日曜日
2017年2月10日金曜日
clamavエラー
lubuntuにインストールしたclamavのウイルスリストを更新しようとしてfreshclamと入力したところ、下記のようなエラーがでた。
ERROR: Can't open /var/log/clamav/freshclam.log in append mode (check permissions!).
ERROR: Problem with internal logger (UpdateLogFile = /var/log/clamav/freshclam.log).
freshclam.logの所有権を変えてみたりしたが、状況はかわらなかった。
ネットで検索すると、なんでもclamav-freshclamがlogファイルを専有しているようなので、
下記のようにしたところ、更新できた。
1.
2.
(ウイルスリストの更新)
3.
# apt-get -y install clamAV
# apt-get -y install clamav-freshclam
【スキャン方法】
clamscan
ERROR: Can't open /var/log/clamav/freshclam.log in append mode (check permissions!).
ERROR: Problem with internal logger (UpdateLogFile = /var/log/clamav/freshclam.log).
freshclam.logの所有権を変えてみたりしたが、状況はかわらなかった。
ネットで検索すると、なんでもclamav-freshclamがlogファイルを専有しているようなので、
下記のようにしたところ、更新できた。
1.
sudo /etc/init.d/clamav-freshclam stop
(
clamav-freshclamを止める
)
2.
sudo freshclam
(ウイルスリストの更新)
3.
sudo /etc/init.d/clamav-freshclam start
(
clamav-freshclamをスタートさせる
)
【clamAVのインストール方法】# apt-get -y install clamAV
# apt-get -y install clamav-freshclam
【スキャン方法】
clamscan
2017年2月9日木曜日
ThinkPadのバッテリー管理
Linux on thinkpadにおけるバッテリー管理
tpacpi_bat:Ivy Bridege以降のThinkpad
tlp:それ以前のThinkpad
tp_smapi: tlpを動かすために必要。
acpi_call:比較的新しいThinkpadのバッテリー管理をするために必要
たとえば、tlpを使って75%になったら充電を開始し、85%になったら充電をやめる場合は下記のように書く。
sudo tlp setcharge 75 85 BAT0
【tlpのマニュアル】
TLP(8) TLP(8)
NAME
tlp - apply laptop power management settings
SYNOPSIS
tlp command [param]
DESCRIPTION
This command allows one to invoke TLP's functions manually and provides
extended battery functions for ThinkPads.
COMMANDS
start Initialize tlp and apply settings according to the actual power
source.
bat Apply settings for battery power source.
true Same as bat (this command is called when power source changes to
battery).
ac Apply settings for ac power source.
false Same as ac (this command is called when power source changes to
ac).
usb Enable autosuspend for all usb devices, except blacklisted ones.
bayoff Turn off optical drive in UltraBay/MediaBay. The drive may be
re-enabled by pulling the eject lever or pushing the media eject
button on newer models.
setcharge [START_CHARGE STOP_CHARGE] [BAT0|BAT1] (ThinkPads only)
Set charge thresholds of main (BAT0) or Ultrabay (BAT1) battery
temporarily. Values must be between 1 and 100, Stop > Start + 3.
Configured thresholds are restored upon next system start. When
called without arguments, configured thresholds are set.
fullcharge [BAT0|BAT1] (ThinkPads only)
Set charge thresholds of main (BAT0) or Ultrabay (BAT1) battery
to factory preset (96/100) temporarily (causing a full charge).
Configured thresholds are restored upon next system start.
chargeonce [BAT0|BAT1] (ThinkPads only)
Charge main (BAT0) or Ultrabay (BAT1) battery to upper charge
threshold once (bypassing lower threshold). Configured thresh‐
olds are restored upon next system start.
discharge [BAT0|BAT1] (ThinkPads only)
Force complete discharge of main (BAT0) or Ultrabay (BAT1) bat‐
tery.
recalibrate [BAT0|BAT1] (ThinkPads only)
Battery recalibration: completely discharge main (BAT0) or
Ultrabay (BAT1) battery and recharge to 100%.
stat Same as tlp-stat.
diskid Show disk ids for configuration.
FILES
/etc/default/tlp
System configuration file containing all power management set‐
tings.
SEE ALSO
tlp-stat(8), bluetooth(1), wifi(1), wwan(1).
Project homepage: ⟨http://linrunner.de⟩
AUTHOR
Thomas Koch <linrunner at gmx.net>
Power Management 2015-01-03 TLP(8)
tpacpi_bat:Ivy Bridege以降のThinkpad
tlp:それ以前のThinkpad
tp_smapi: tlpを動かすために必要。
acpi_call:比較的新しいThinkpadのバッテリー管理をするために必要
たとえば、tlpを使って75%になったら充電を開始し、85%になったら充電をやめる場合は下記のように書く。
sudo tlp setcharge 75 85 BAT0
【tlpのマニュアル】
TLP(8) TLP(8)
NAME
tlp - apply laptop power management settings
SYNOPSIS
tlp command [param]
DESCRIPTION
This command allows one to invoke TLP's functions manually and provides
extended battery functions for ThinkPads.
COMMANDS
start Initialize tlp and apply settings according to the actual power
source.
bat Apply settings for battery power source.
true Same as bat (this command is called when power source changes to
battery).
ac Apply settings for ac power source.
false Same as ac (this command is called when power source changes to
ac).
usb Enable autosuspend for all usb devices, except blacklisted ones.
bayoff Turn off optical drive in UltraBay/MediaBay. The drive may be
re-enabled by pulling the eject lever or pushing the media eject
button on newer models.
setcharge [START_CHARGE STOP_CHARGE] [BAT0|BAT1] (ThinkPads only)
Set charge thresholds of main (BAT0) or Ultrabay (BAT1) battery
temporarily. Values must be between 1 and 100, Stop > Start + 3.
Configured thresholds are restored upon next system start. When
called without arguments, configured thresholds are set.
fullcharge [BAT0|BAT1] (ThinkPads only)
Set charge thresholds of main (BAT0) or Ultrabay (BAT1) battery
to factory preset (96/100) temporarily (causing a full charge).
Configured thresholds are restored upon next system start.
chargeonce [BAT0|BAT1] (ThinkPads only)
Charge main (BAT0) or Ultrabay (BAT1) battery to upper charge
threshold once (bypassing lower threshold). Configured thresh‐
olds are restored upon next system start.
discharge [BAT0|BAT1] (ThinkPads only)
Force complete discharge of main (BAT0) or Ultrabay (BAT1) bat‐
tery.
recalibrate [BAT0|BAT1] (ThinkPads only)
Battery recalibration: completely discharge main (BAT0) or
Ultrabay (BAT1) battery and recharge to 100%.
stat Same as tlp-stat.
diskid Show disk ids for configuration.
FILES
/etc/default/tlp
System configuration file containing all power management set‐
tings.
SEE ALSO
tlp-stat(8), bluetooth(1), wifi(1), wwan(1).
Project homepage: ⟨http://linrunner.de⟩
AUTHOR
Thomas Koch <linrunner at gmx.net>
Power Management 2015-01-03 TLP(8)
2017年2月4日土曜日
Google トリビア?
昔のハードディスク内を探索していたら、Googleトリビアが出てきたので、御紹介。
ファイルのタイムスタンプから、2009年頃の情報と推測される。
■Googleを使いこなす方法
・チルダを使って類義語検索
http://www.google.co.jp/search?hl=ja&ie=UTF-8&oe=UTF-8&q=%7Eapple&lr=
http://www.google.co.jp/search?hl=ja&ie=UTF-8&oe=UTF-8&q=%7Estreaming&lr=
・LangToolsで英語以外を英語に翻訳
http://www.google.com/language_tools?hl=en
・GoogleSetsで簡易ブレスト
http://labs.google.com/sets
mpeg video streaming
・計算機能
http://www.google.co.jp/search?q=2003*9*23%2B1300&ie=UTF-8&oe=UTF-8&hl=ja&lr=
・イメージ検索ってグラフ、チャート、プレゼン資料を探す
http://images.google.co.jp/images?hl=ja&lr=&ie=UTF-8&oe=UTF-8&q=B2B%E3%80%80%E5%B8%82%E5%A0%B4
・GooglePageRank値によるページの人気度、権威を確認
http://toolbar.google.com/
・AdWordsで同時検索語の確認
https://adwords.google.com/select/main?cmd=KeywordSandbox
・2単語の検索結果数を比較
http://www.onfocus.com/googlesmack/down.asp
・地理上の位置とリンクした検索
http://labs.google.com/location?q=B2b&geo_near=94043&Search=Google+Search
・オフライン市場価格や広告を知る
http://catalogs.google.com/catalogs?q=palm
・オンラインストアの価格を知る
http://froogle.google.com/froogle?q=mindstorm
・米国の特定大学内の情報を検索する
http://www.google.com/options/universities.html
ファイルのタイムスタンプから、2009年頃の情報と推測される。
■Googleを使いこなす方法
・チルダを使って類義語検索
http://www.google.co.jp/search?hl=ja&ie=UTF-8&oe=UTF-8&q=%7Eapple&lr=
http://www.google.co.jp/search?hl=ja&ie=UTF-8&oe=UTF-8&q=%7Estreaming&lr=
・LangToolsで英語以外を英語に翻訳
http://www.google.com/language_tools?hl=en
・GoogleSetsで簡易ブレスト
http://labs.google.com/sets
mpeg video streaming
・計算機能
http://www.google.co.jp/search?q=2003*9*23%2B1300&ie=UTF-8&oe=UTF-8&hl=ja&lr=
・イメージ検索ってグラフ、チャート、プレゼン資料を探す
http://images.google.co.jp/images?hl=ja&lr=&ie=UTF-8&oe=UTF-8&q=B2B%E3%80%80%E5%B8%82%E5%A0%B4
・GooglePageRank値によるページの人気度、権威を確認
http://toolbar.google.com/
・AdWordsで同時検索語の確認
https://adwords.google.com/select/main?cmd=KeywordSandbox
・2単語の検索結果数を比較
http://www.onfocus.com/googlesmack/down.asp
・地理上の位置とリンクした検索
http://labs.google.com/location?q=B2b&geo_near=94043&Search=Google+Search
・オフライン市場価格や広告を知る
http://catalogs.google.com/catalogs?q=palm
・オンラインストアの価格を知る
http://froogle.google.com/froogle?q=mindstorm
・米国の特定大学内の情報を検索する
http://www.google.com/options/universities.html
2017年2月3日金曜日
Tensorflow入門【MNIST編】【情報保存編】
mnist編で学習パラメタを保存する場合はこちら。
tensorflowというフォルダに保存する設定になっています。
##save dataのところが、今回追加した部分。
【mnist.py】
import tensorflow as tf
import input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
sess = tf.InteractiveSession()
# create the model
x = tf.placeholder("float", [None, 784])
W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))
y= tf.nn.softmax(tf.matmul(x, W) + b)
##save data
saver = tf.train.Saver()
# define loss and optimizer
y_ = tf.placeholder("float", [None, 10])
cross_entropy = -tf.reduce_sum(y_*tf.log(y))
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
# train
tf.global_variables_initializer().run()
for i in range(1000):
batch_xs, batch_ys = mnist.train.next_batch(100)
train_step.run({x: batch_xs, y_:batch_ys})
# test trained model
correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
accuray = tf.reduce_mean(tf.cast(correct_prediction, "float"))
print(accuray.eval({x: mnist.test.images, y_: mnist.test.labels}))
##save data
save_path = saver.save(sess,"/tensorflow/model.ckpt")
print("Model saved in file: %s" % save_path)
tensorflowというフォルダに保存する設定になっています。
##save dataのところが、今回追加した部分。
【mnist.py】
import tensorflow as tf
import input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
sess = tf.InteractiveSession()
# create the model
x = tf.placeholder("float", [None, 784])
W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))
y= tf.nn.softmax(tf.matmul(x, W) + b)
##save data
saver = tf.train.Saver()
# define loss and optimizer
y_ = tf.placeholder("float", [None, 10])
cross_entropy = -tf.reduce_sum(y_*tf.log(y))
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
# train
tf.global_variables_initializer().run()
for i in range(1000):
batch_xs, batch_ys = mnist.train.next_batch(100)
train_step.run({x: batch_xs, y_:batch_ys})
# test trained model
correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
accuray = tf.reduce_mean(tf.cast(correct_prediction, "float"))
print(accuray.eval({x: mnist.test.images, y_: mnist.test.labels}))
##save data
save_path = saver.save(sess,"/tensorflow/model.ckpt")
print("Model saved in file: %s" % save_path)
PowerShellで2つのファイルを比較する
PS> $A = Get-Content file1 PS> $B = Get-Content file2 PS> Compare-Object $A $B
2017年2月2日木曜日
Thinkpad X301に256GBのSSDインストール
「MTG-8170m mSATA SSD-1.8”SATA変換アダプター」を使って、Thinkpad X301に256GBのSSDをインストールした。
使ったSSDは、Sandisk Ultra2 mSATA Solid Drive(SDMSATA-256G-G25C)。
Thinkpad X301用のバッテリー購入
Thinkpad X301のバッテリーが死んでしまったので、イーライズから互換バッテリーを購入。
容量は、オリジナル(43R1967)の4000mAhに対して、5200mAhとなっており期待していたが、到着して確認したところ容量は4000mAhだった。
容量は、オリジナル(43R1967)の4000mAhに対して、5200mAhとなっており期待していたが、到着して確認したところ容量は4000mAhだった。
2017年1月26日木曜日
Tensorflow入門【MNIST編】
ここを見ながら、「python mnist.py」を実行しようとしたが、
ImportError: No module named 'input_data'
と怒られたので、
ここから、「input_data.py」を作って、tensorflowを動かしているフォルダに置く。
(もしくはPathの通っているところに input_data.pyを置いてもOK)
その後、「python mnist.py」と入力したら動いた。
アウトプットされた結果は「0.9096」だった。
尚、trainの部分はオリジナルは
「tf.initialize_all_variables().run()」であったが、2017/03/02以降使えなくなるそうなので、代わりに「tf.global_variables_initializer().run()」と記述した。
【mnist.py】
import tensorflow as tf
import input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
sess = tf.InteractiveSession()
# create the model
x = tf.placeholder("float", [None, 784])
W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))
y= tf.nn.softmax(tf.matmul(x, W) + b)
# define loss and optimizer
y_ = tf.placeholder("float", [None, 10])
cross_entropy = -tf.reduce_sum(y_*tf.log(y))
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
# train
tf.global_variables_initializer().run()
for i in range(1000):
batch_xs, batch_ys = mnist.train.next_batch(100)
train_step.run({x: batch_xs, y_:batch_ys})
# test trained model
correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
accuray = tf.reduce_mean(tf.cast(correct_prediction, "float"))
print(accuray.eval({x: mnist.test.images, y_: mnist.test.labels}))
ImportError: No module named 'input_data'
と怒られたので、
ここから、「input_data.py」を作って、tensorflowを動かしているフォルダに置く。
(もしくはPathの通っているところに input_data.pyを置いてもOK)
その後、「python mnist.py」と入力したら動いた。
アウトプットされた結果は「0.9096」だった。
尚、trainの部分はオリジナルは
「tf.initialize_all_variables().run()」であったが、2017/03/02以降使えなくなるそうなので、代わりに「tf.global_variables_initializer().run()」と記述した。
【mnist.py】
import tensorflow as tf
import input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
sess = tf.InteractiveSession()
# create the model
x = tf.placeholder("float", [None, 784])
W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))
y= tf.nn.softmax(tf.matmul(x, W) + b)
# define loss and optimizer
y_ = tf.placeholder("float", [None, 10])
cross_entropy = -tf.reduce_sum(y_*tf.log(y))
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
# train
tf.global_variables_initializer().run()
for i in range(1000):
batch_xs, batch_ys = mnist.train.next_batch(100)
train_step.run({x: batch_xs, y_:batch_ys})
# test trained model
correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
accuray = tf.reduce_mean(tf.cast(correct_prediction, "float"))
print(accuray.eval({x: mnist.test.images, y_: mnist.test.labels}))
2017年1月22日日曜日
2017年1月21日土曜日
他行宛の振込手数料優遇プログラム
【東京三菱UFJ銀行】
ホワイトステージ(MUFJ ATM手数料無料):預金10万円以上等
シルバーステージ(上記に加え、コンビニATM月3回無料):預金30万円以上等
ゴールドステージ(月3回無料):預金500万円以上等
【三井住友銀行】
特になし。ただし、SMBCポイントを使って無料することはできる模様。
【みずほ銀行】
以下の条件をいずれか満たした場合、月4回まで無料
・みずほ銀行・みずほ信託銀行・みずほ証券の資産運用商品(投資信託・金銭信託・外貨預金・公社債など)の月末残高がある。
・みずほ銀行からの借り入れ(住宅ローン・カードローン)の月末残高がある
・みずほ銀行・みずほ信託銀行などへの資産が500万円以上
・みずほマイレージクラブカードなどの利用が年間100万円以上
【ソニー銀行】
Sony Bank WALLETありの場合
ステージなし(月2回):特になし
シルバーステージ(月4回):月末の総残高300万円以上、外貨預金積立購入が月5万円以上、or投資信託積立購入が月5万円以上
ゴールドステージ(月6回):月末の外貨預金残高と月末の投資信託残高が合計500万円から1000万円
プラチナステージ(月11回):月末の外貨預金残高と月末の投資信託残高が1000万円以上
Sony Bank WALLETなしの場合
ステージなし(月1回)、シルバーステージ(月3回)、ゴールドステージ(月5回)、プラチナステージ(月10回)
ステージアップ条件については、「住宅ローン残高」「外国為替証拠金取引に月間取引枚数1000枚以上」あれば、更に1ランクステージアップする。
【新生銀行】
スタンダード(月1回無料):下記以外
ゴールド(月5回無料):普通預金・パワー預金・2週間満期定期預金の総額が100万円以上等
プラチナ(月10回無料):預け入れ総資産が2000万円以上等
ホワイトステージ(MUFJ ATM手数料無料):預金10万円以上等
シルバーステージ(上記に加え、コンビニATM月3回無料):預金30万円以上等
ゴールドステージ(月3回無料):預金500万円以上等
【三井住友銀行】
特になし。ただし、SMBCポイントを使って無料することはできる模様。
【みずほ銀行】
以下の条件をいずれか満たした場合、月4回まで無料
・みずほ銀行・みずほ信託銀行・みずほ証券の資産運用商品(投資信託・金銭信託・外貨預金・公社債など)の月末残高がある。
・みずほ銀行からの借り入れ(住宅ローン・カードローン)の月末残高がある
・みずほ銀行・みずほ信託銀行などへの資産が500万円以上
・みずほマイレージクラブカードなどの利用が年間100万円以上
【ソニー銀行】
Sony Bank WALLETありの場合
ステージなし(月2回):特になし
シルバーステージ(月4回):月末の総残高300万円以上、外貨預金積立購入が月5万円以上、or投資信託積立購入が月5万円以上
ゴールドステージ(月6回):月末の外貨預金残高と月末の投資信託残高が合計500万円から1000万円
プラチナステージ(月11回):月末の外貨預金残高と月末の投資信託残高が1000万円以上
Sony Bank WALLETなしの場合
ステージなし(月1回)、シルバーステージ(月3回)、ゴールドステージ(月5回)、プラチナステージ(月10回)
ステージアップ条件については、「住宅ローン残高」「外国為替証拠金取引に月間取引枚数1000枚以上」あれば、更に1ランクステージアップする。
【新生銀行】
スタンダード(月1回無料):下記以外
ゴールド(月5回無料):普通預金・パワー預金・2週間満期定期預金の総額が100万円以上等
プラチナ(月10回無料):預け入れ総資産が2000万円以上等
2017年1月17日火曜日
Tensorflow入門【インストール編】
バージョン0.12からwindowsをネイティブサポートするようになりました。(2016.11.29)
1.PCにpython(バージョン3.5.2)をインストールする。
ダウンロード先はここ。
単純に「Python3.5.2」を選ぶと32bit版なので、ちゃんと64bit版(Windows x86-64 executable installer)を選ぶこと。
2.Python 3.5.2をインストールする。
3.Pythonに含まれる「pip」というツールを使って、tensorflowをインストールする。
「Power Shell」を開いて、下記のコマンドを入力する。
python -m pip install --upgrade https://storage.googleapis.com/tensorflow/windows/cpu/tensorflow-0.12.0rc1-cp35-cp35m-win_amd64.whl
4.インストールの確認。
下記内容を書いたファイル「hello.py」(pythonの拡張子はpy)
import tensorflow as tf
hello = tf.constant('Hello tensorflow')
sess = tf.Session()
print(sess.run(hello))
を作って、PowerShellから
python hello.py
と入力し、「hello tensorflow」と表示されればOK。
1.PCにpython(バージョン3.5.2)をインストールする。
ダウンロード先はここ。
単純に「Python3.5.2」を選ぶと32bit版なので、ちゃんと64bit版(Windows x86-64 executable installer)を選ぶこと。
2.Python 3.5.2をインストールする。
3.Pythonに含まれる「pip」というツールを使って、tensorflowをインストールする。
「Power Shell」を開いて、下記のコマンドを入力する。
python -m pip install --upgrade https://storage.googleapis.com/tensorflow/windows/cpu/tensorflow-0.12.0rc1-cp35-cp35m-win_amd64.whl
4.インストールの確認。
下記内容を書いたファイル「hello.py」(pythonの拡張子はpy)
import tensorflow as tf
hello = tf.constant('Hello tensorflow')
sess = tf.Session()
print(sess.run(hello))
を作って、PowerShellから
python hello.py
と入力し、「hello tensorflow」と表示されればOK。
2017年1月11日水曜日
Digno e 503KCにおけるsdカードの内部ストレージ化
インストールされているOSはandroid 6.0.1 marshmallowなので、os的には、sdカードを内部ストレージ化できるはずだが、そのような仕様になっていないので、パソコンを使って、自分で内部ストレージ化する必要がある。
1.スマホ側の準備
【開発者モードにする】
【USBドライバをインストールする。】
2.パソコン側の準備
【「adb shell」が動くようにする】
アンドロイドのホームページに行くと「sdk plathome tools」を含む「Android Studio」をダウンロードするように促されるが、容量が1.6GBと多いので、こちらからsdk plathome toolsのみをダウンロードしたほうが良い。
3.搭載したSDカードの内部ストレージ化を行う。
adb shell[Enter]
sm list-disks[Enter]
ここで、「disk:179,64」と表示されたら
sm partition disk:179,64 private[Enter]
・つないで「adb shell」と打ち込んだ場合エラーメッセージが出る場合もあるが、その場合、スマホの画面にこのパソコンにつないでよいかのメッセージが出てることがあるので、それを許可して、もう一度「adb shell」と打ち込めばよい。
・上記の内部ストレージ化ができたら、「設定」→「ストレージ」→「SDカード」を選択し、画面右上のメニュー(丸が縦に3つ並んでいる)から「データを移行」を選択することで、内部ストレージデータをSDカード側に移すことができる。
参考資料2:adbコマンド
参考資料3:全般的な流れ
1.スマホ側の準備
【開発者モードにする】
【USBドライバをインストールする。】
2.パソコン側の準備
【「adb shell」が動くようにする】
アンドロイドのホームページに行くと「sdk plathome tools」を含む「Android Studio」をダウンロードするように促されるが、容量が1.6GBと多いので、こちらからsdk plathome toolsのみをダウンロードしたほうが良い。
3.搭載したSDカードの内部ストレージ化を行う。
adb shell[Enter]
sm list-disks[Enter]
ここで、「disk:179,64」と表示されたら
sm partition disk:179,64 private[Enter]
・つないで「adb shell」と打ち込んだ場合エラーメッセージが出る場合もあるが、その場合、スマホの画面にこのパソコンにつないでよいかのメッセージが出てることがあるので、それを許可して、もう一度「adb shell」と打ち込めばよい。
・上記の内部ストレージ化ができたら、「設定」→「ストレージ」→「SDカード」を選択し、画面右上のメニュー(丸が縦に3つ並んでいる)から「データを移行」を選択することで、内部ストレージデータをSDカード側に移すことができる。
参考資料2:adbコマンド
参考資料3:全般的な流れ
登録:
投稿 (Atom)