2024年9月30日月曜日
ArduinoとRaspberry piの消費電力比較
下記の参考リンクから抜粋。
Arduino | Raspberry Pi3 | |
プロセッサ | ATmega328 | BCM2837 |
周波数 | 16MHz | 1200MHz |
レジスタサイズ | 8bit | 64bit |
RAM | 2k | 1024MB |
GPIO | 20 | 40 |
I/Oピン最大電流 | 40mA | 15mA? |
消費電力 | 約100mW | 約5000mW |
オペレーションシステム | なし | linux ・その他 |
2024年9月26日木曜日
wslの最初のメッセージがうざい。
2024年9月25日水曜日
Center Netを使った文字認識
CenterNetの特徴:本カーネルでは、最近話題になっているキーポイントベースの検出器を試してみました。CornerNet派生の『CenterNet』と呼ばれるもので、YOLOなどのようにアンカーを使用せず、セグメンテーション(U-Net)のようなヒートマップで対象物の中心点を検出する手法です。(シングルアンカーのような雰囲気ですが、ヒートマップだけでいいので実装しやすい印象です)
参考リンク:kuzushizi_recog_sample
2024年9月24日火曜日
python:ファイルを読み込んで、内容を表示するプログラム
#! /usr/bin/python3
with open('test.txt','r',encoding='utf-8') as file:
content = file.read()
print(content)
#!(シェバン)の由来
pythonのなどのプログラムを書く際に、インタプリタを呼び出すため、冒頭に#!(shebang:シェバン)という記号を書く必要がある。一瞬、#と!のうち、どちらが先かわからなくなったので、由来を調べてみた。
#=Hash、!=Bang つなげてHashBangとなり、略してShbangとなったようだ。
python:forループ文
Pythonのfor文は、リストや文字列などのシーケンスの各要素に対して繰り返し処理を行うための構文です。基本的な書き方は以下の通りです
for 変数 in シーケンス:
実行する処理
例えば、リスト内の各要素を順番に出力するコードは次のようになります。
words = ['Japanese', 'English', 'French']
for word in words:
print(word)
#出力
Japanese
English
French
また、特定の回数だけ繰り返し処理を行いたい場合には、range関数を使います。例えば、0から9までの数字を出力するコードは次の通りです。
for num in range(10):
print(num)
#出力
0
1
2
3
4
5
6
7
8
9
更に、breakやcontinueを使ってループ制御を行うこともできます。例えば、特定の条件でループを終了する場合はbreakを使います。
for num in range(10):
if num == 5:
break
print(num)
#出力
0
1
2
3
4
range関数の3つの形式
range関数の3つの形式
1.range(stop) 0からstopまでの整数を生成します(stopは含まれません)
for i in range(5):
print(i)
#出力 0,1,2,3,4
2.range(start,stop) startからstopまでの整数を生成します(stopは含まれません)
for i in range(2,5):
print(i)
#出力 2,3,4
3.range(start,stop,step) startからstopまでの整数をstepの間隔で生成します(stopは含まれません)
for i in range(1,10,2):
print(i)
#出力 1,3,5,7,9
2024年9月20日金曜日
物体検出に関する講演案
1.タイトルスライド
タイトル: 物体検出の基礎
副題: 画像認識技術の進化
2.アジェンダ
物体検出とは
画像分類との違い
主要な手法
評価指標
応用例
未来の展望
3.物体検出とは
定義と目的
4.画像分類との違い
画像分類は1つのラベル
物体検出は複数の物体を同時に検出
5.物体検出の重要性
自動運転、監視、医療などの応用
6.物体検出の基本概念
バウンディングボックス
7.物体検出の手法の分類
2つの大きなアプローチ: 従来手法と深層学習
8.従来手法の概要
Haar Cascades, HOG, SVM など
9.深層学習の登場
CNNの進化と影響
10.YOLOの概要
You Only Look Once (YOLO) の基本概念
11.YOLOの動作原理
グリッド分割とバウンディングボックス
12.YOLOのバージョン
YOLOv1からYOLOv5までの進化
13.SSDの概要
Single Shot MultiBox Detectorの基本
14.SSDの特徴
高速性と精度の両立
15.Faster R-CNNの概要
RPN(Region Proposal Network)の説明
16.Faster R-CNNの利点
精度と汎用性の高さ
17.物体検出における損失関数
バウンディングボックスとクラス分類の損失
18.データセットの重要性
COCO、Pascal VOC などのデータセット紹介
19.アノテーション方法
バウンディングボックスのアノテーション手法
20.評価指標の概要
mAP(mean Average Precision)の説明
21.IoU(Intersection over Union)とは
IoUの計算方法と重要性
22.物体検出の実際の流れ
データ収集からモデル評価までのプロセス
23.アーキテクチャの選定基準
精度、速度、使用ケースの考慮
24.リアルタイム物体検出
要件と技術的チャレンジ
25.物体検出の応用例
自動運転車での使用
26.監視カメラシステムにおける物体検出
安全性向上への貢献
27.医療画像解析での物体検出
病変の自動検出の重要性
28.顔認識と物体検出の違い
顔認識の技術的特異性
29.物体検出におけるトレンド
転移学習や事前学習モデルの利用
30.物体検出における課題
過学習やデータバイアスの問題
31.未来の物体検出技術
エッジAIやクラウドコンピューティングの可能性
32.物体検出の最新研究
最新のアプローチや技術動向
33.ツールとライブラリの紹介
TensorFlow、PyTorch などの利用
34.実装例の紹介
サンプルコードとデモ画像
35.ケーススタディ
成功事例の紹介
36.まとめと今後の展望
物体検出の重要性の再確認
37.Q&Aセッション
聴衆からの質問に応答
38.参考文献とリソース
学習リソースと文献一覧
39.感謝の言葉
聴衆への感謝
40.エンディングスライド
次回の講演やワークショップの案内