編集履歴一覧に戻る
Yuki5130のアイコン画像

Yuki5130 が 2025年01月31日17時33分41秒 に編集

初版

タイトルの変更

+

Spresenseによる転倒検出システムの試作

タグの変更

+

SPRESENSE

メイン画像の変更

メイン画像が設定されました

記事種類の変更

+

製作品

本文の変更

+

# 概要 祖父母が無事に生活できているか安否を確認したいと思い、カメラを使って生活できているのか転倒などしていないか確認するシステムを作ってみました。 ## 使用部品 - Sony Spresense メインボード https://www.sony-semicon.com/ja/products/spresense/index.html - Spresense LTE拡張ボード https://developer.sony.com/ja/spresense/products/spresense-lte-ext-board - Spresense HDR カメラボード https://developer.sony.com/ja/spresense/products/spresense-hdr-camera-board ## 使用ソフト - Arduino IDE - Neural Network Console ## システム構成 まず、Spresenseメインボードに接続したHDRカメラで転倒・直立を判別するための画像データを撮影します。次に、Sony Neural Network Consoleを使用して収集した画像を基に画像分類モデルを構築し、このモデルをSpresense上で動作させるためのnnbファイルとして出力します。最後に、Spresense上にnnbファイルを組み込み、画像分類モデルを用いて転倒・直立の判別が適切に行えるか検証します。 ![キャプションを入力できます](https://camo.elchika.com/03543075798b50c1925d41b63e7224cdf0dfa151/687474703a2f2f73746f726167652e676f6f676c65617069732e636f6d2f656c6368696b612f76312f757365722f38313038633031372d363062382d346138382d623162652d3939636632383064393934662f33343030396238362d653761642d343034352d393764332d393731623865336661653330/) # HDRカメラボードのセットアップ この章では、Spresenseにカメラボードを接続し、動作確認を行います。 1. カメラボードの取り付け カメラボードのフラットケーブルを、Spresenseメインボードのカメラ専用コネクタ(CN5)に正しく挿し込みます。 フラットケーブルの電極の向きを、下図のようにmicroUSBコネクタ側に向けて接続してください。 ![キャプションを入力できます](https://camo.elchika.com/6c8c3c7fc91cff7d48b29f792d37acf257cdf9ac/687474703a2f2f73746f726167652e676f6f676c65617069732e636f6d2f656c6368696b612f76312f757365722f38313038633031372d363062382d346138382d623162652d3939636632383064393934662f38663235346235652d353632382d343961312d396562312d386363643534623737393031/) 引用先:https://developer.sony.com/spresense/development-guides/introduction_ja.html 2. カメラの動作確認 Arduino IDEのメニューバーにある「ファイル」→「スケッチ例」→「Camera」→「camera」を選択し、Spresenseに書き込むとHDR Cameraで撮影した画像がSDカードに保存されます。 ![キャプションを入力できます](https://camo.elchika.com/f9f8fd312ea9175d6f4285152750497c80f48802/687474703a2f2f73746f726167652e676f6f676c65617069732e636f6d2f656c6368696b612f76312f757365722f38313038633031372d363062382d346138382d623162652d3939636632383064393934662f66663038643737352d383064342d343130352d613466392d373965333034613531666365/) ## 1. 画像データセットの準備 まずは転倒状態を判別するための画像を準備します。今回は自分のQiita記事に沿って準備を進めます。 `参考サイト`:https://qiita.com/yuki5130/items/531caa08c48a78bb90cc ### 1-1 画像の撮影・収集 カメラを用いて、以下の2種類の画像を撮影し、SDカードに保存します。 - 正常な状態(直立) ![キャプションを入力できます](https://camo.elchika.com/b0a6ba1b07b43c15945952dc8f99b045c03004a6/687474703a2f2f73746f726167652e676f6f676c65617069732e636f6d2f656c6368696b612f76312f757365722f38313038633031372d363062382d346138382d623162652d3939636632383064393934662f63366135393333352d346139352d346539632d383339382d396266316339366362646331/) - 転倒状態 ![キャプションを入力できます](https://camo.elchika.com/6c564973c0b066c6f095ca0eef27b62e48ea613e/687474703a2f2f73746f726167652e676f6f676c65617069732e636f6d2f656c6368696b612f76312f757365722f38313038633031372d363062382d346138382d623162652d3939636632383064393934662f31323937336434642d336364382d343166342d396461342d613734346263646133613964/) ### 1-2 フォルダ構成 撮影した画像を以下のように整理します。 ```bash dataset/falling_standing/ ├── 0/ # 正常な立位の画像 │ ├── img1.jpg │ ├── img2.jpg ├── 1/ # 転倒状態の画像 │ ├── img1.jpg │ ├── img2.jpg ``` #### 注意点 - 各フォルダに最低でも100枚以上の画像を用意してください。多いほど精度が上がります. - 画像サイズがバラバラでも大丈夫です。Neural Network Console側で画像サイズをトリミングやリサイズもしてくれます。 ## 2. Neural Network Consoleのインストール 画像判別AIモデルの構築には、Neural Network Console(NNC) を使用します。自分のQiita記事に沿って準備を進めます。 `参考サイト`:https://qiita.com/yuki5130/items/5951c5f9cf4fac44327c ### 2-1 インストール方法 1. 以下のサイトからインストール用のexeファイルをダウンロードします `参考サイト`:https://techhub.developer.sony.com/ja/neural-network-console#NNC%20W%20JA 2. アカウントを作成またはGoogleアカウントでサインインします。 ## 3. データセットの登録 1. まずはNeural Network Console(以降NNCと呼ぶ)を起動します。 2. メニューバー右側にある「プロジェクトに名前を付けて保存」からプロジェクトの名前を保存します。それから 左メニューの「Dataset」タブをクリックします。 ![キャプションを入力できます](https://camo.elchika.com/a5d76c1f6ca1ef608b76c2ddeb0343e3549eded5/687474703a2f2f73746f726167652e676f6f676c65617069732e636f6d2f656c6368696b612f76312f757365722f38313038633031372d363062382d346138382d623162652d3939636632383064393934662f38346561376335382d326534342d343938622d396431612d353432353836663738343236/) 3. データセットタブ下にある「データセットを開く」を選択し、 「データセットを作成」→「を選択します。 ![キャプションを入力できます](https://camo.elchika.com/8387ef973c508afac4e90cd2cdb1ceeb25d3d990/687474703a2f2f73746f726167652e676f6f676c65617069732e636f6d2f656c6368696b612f76312f757365722f38313038633031372d363062382d346138382d623162652d3939636632383064393934662f33366637366265632d313832652d343337372d626331362d636266356634353334343033/) 4. 「画像分類」を選択します。 ![キャプションを入力できます](https://camo.elchika.com/523b8fb837c6c1a6a48bf42d0cc8ec61dc959e17/687474703a2f2f73746f726167652e676f6f676c65617069732e636f6d2f656c6368696b612f76312f757365722f38313038633031372d363062382d346138382d623162652d3939636632383064393934662f32396230666564332d633962322d346366392d616236362d616239323662353362663130/) 5. 「Create Dataset」という新しいタブが表示されます。ソースディレクトリに第1章で用意したデータセットの「dataset/falling_standing/」のフォルダを選択します。 ![キャプションを入力できます](https://camo.elchika.com/af19d5beb807a63abde1d688ecd27f8242c38c88/687474703a2f2f73746f726167652e676f6f676c65617069732e636f6d2f656c6368696b612f76312f757365722f38313038633031372d363062382d346138382d623162652d3939636632383064393934662f38616664303863622d303433332d343733362d396264612d306130373933306563353436/) 6. そのほかの設定は学習させたいモデルに応じて変更することができます。 7.「適用」を押すと、学習用とテスト用データセットが作成されます。 ## 4. Neutal Network Consoleを使った 画像分類モデルの構築 ### 4-1 ネットワークの構築 - 以下の画像に示す構成でネットワークを組みます。 - 今回は画像による分類を行うために、2クラス分類を行う単純な畳み込みニューラルネットワークを構築します。各層の説明は今回省きます。 - このソフトを使ってモデルを構築するにあたって、重要なポイントはInputの形状(Size)とSoftMaxの形状を正しく入力することです。 ![キャプションを入力できます](https://camo.elchika.com/2ad81f8595d9ab690bdc1358075f22bef5a88c6c/687474703a2f2f73746f726167652e676f6f676c65617069732e636f6d2f656c6368696b612f76312f757365722f38313038633031372d363062382d346138382d623162652d3939636632383064393934662f30303330633839642d623865342d343339382d386466312d333235666461313837383839/) ### 4-2 モデルの学習と評価 1. 「編集」のタブからInput層~SoftmaxCrossEntropy層を追加します。 2. 「コンフィグ」からバッチサイズを設定します。「編集」のタブに戻り、「実行」をクリックすると学習開始します 3. 「学習」タブの右にある「実行」を押すとテストデータを使って、モデルの評価が行われます。 4. 「評価」のタブでは画像分類モデルによる分類精度の評価が行われます。 - 出力結果のタブでは、テストデータ1つ1つの分類精度が表示されます。 - 混合行列のタブでは、テストデータ全体の評価が行われます。 ![キャプションを入力できます](https://camo.elchika.com/3426382663158b8da02535dad4a5234f5730dc8c/687474703a2f2f73746f726167652e676f6f676c65617069732e636f6d2f656c6368696b612f76312f757365722f38313038633031372d363062382d346138382d623162652d3939636632383064393934662f38363837306636622d366531382d343235302d396535382d333339393864393365663463/) ![キャプションを入力できます](https://camo.elchika.com/34e590dab67ca8ac581f5f22b405e6e6a8535d18/687474703a2f2f73746f726167652e676f6f676c65617069732e636f6d2f656c6368696b612f76312f757365722f38313038633031372d363062382d346138382d623162652d3939636632383064393934662f65366163623033322d383736612d346435332d383237372d336332323036343034643532/) ## Spresenseへの組み込み NNCで構築したAIモデルをSpresenseに組み込みます。 ### 手順 1. 「評価」タブから「アクション」→「エクスポート」→「NNB」を順番に選択していきます。 NNBファイルはspresenseで読みこむことができるファイル形式である。 2. 先ほど3章データセット登録の説明でもあった出力ディレクトリにmodel.nnbというファイル形式があるので、この推論モデルををSDカードのルートディレクトリに移します。 ![キャプションを入力できます](https://camo.elchika.com/7daed292ed09dd7feaef43da602aeee91c63feae/687474703a2f2f73746f726167652e676f6f676c65617069732e636f6d2f656c6368696b612f76312f757365722f38313038633031372d363062382d346138382d623162652d3939636632383064393934662f32626332656632362d356633642d343962382d623665642d333833343337626434333939/) ## HDRカメラによるリアルタイム画像分類 前章のAIモデルを使ってHDRで撮影した画像を精度良く分類できるか検証したいと思います。 以下のプログラムを実行してカメラ画像で推論できるか検証したいと思います。 ```c++ #include <SDHCI.h> #include <DNNRT.h> #include <Camera.h> #include <RTC.h> #define DNN_WIDTH 28 #define DNN_HEIGHT 28 DNNRT dnnrt; SDClass SD; DNNVariable input(DNN_WIDTH * DNN_HEIGHT); const char* CSV_FILE = "/results.csv"; void saveToCSV(const String& timestamp, int result, const String& imageFileName) { File file = SD.open(CSV_FILE, FILE_WRITE); if (file) { file.println(timestamp + "," + String(result) + "," + imageFileName); file.close(); } else { Serial.println("Failed to open CSV file for writing."); } } String getTimestamp() { RtcTime now = RTC.getTime(); char buffer[20]; sprintf(buffer, "%04d-%02d-%02d %02d:%02d:%02d", now.year(), now.month(), now.day(), now.hour(), now.minute(), now.second()); return String(buffer); } int inferImage(CamImage& img) { // 幅と高さを直接取得する int imgWidth = img.getWidth(); int imgHeight = img.getHeight(); // リサイズ処理: 画像をDNN入力サイズに手動でリサイズ uint16_t* imgbuf = (uint16_t*)img.getImgBuff(); uint16_t resizedBuf[DNN_WIDTH * DNN_HEIGHT]; // 元画像の縦横比を保ちながら、DNNサイズにリサイズ for (int y = 0; y < DNN_HEIGHT; y++) { for (int x = 0; x < DNN_WIDTH; x++) { int srcX = x * imgWidth / DNN_WIDTH; int srcY = y * imgHeight / DNN_HEIGHT; resizedBuf[y * DNN_WIDTH + x] = imgbuf[srcY * imgWidth + srcX]; } } // グレースケール化して、DNNに入力 float* dnnbuf = input.data(); for (int i = 0; i < DNN_WIDTH * DNN_HEIGHT; i++) { uint16_t pixel = resizedBuf[i]; float r = ((pixel & 0xf800) >> 8) / 255.0; float g = ((pixel & 0x07e0) >> 3) / 255.0; float b = ((pixel & 0x001f) << 3) / 255.0; dnnbuf[i] = (r + g + b) / 3.0; // グレースケール化 } // 推論実行 dnnrt.inputVariable(input, 0); dnnrt.forward(); DNNVariable output = dnnrt.outputVariable(0); return output.maxIndex(); // 最大値のインデックス(推論結果) } void saveImage(const CamImage& img, const String& fileName) { File file = SD.open(fileName.c_str(), FILE_WRITE); if (!file) { Serial.println("Failed to open file for writing."); return; } file.write((uint8_t*)img.getImgBuff(), img.getImgSize()); file.close(); } void CamCB(CamImage img) { if (!img.isAvailable()) { Serial.println("Camera image not available."); return; } String timestamp = getTimestamp(); String imageFileName = "/image_" + timestamp + ".raw"; saveImage(img, imageFileName); int result = inferImage(img); saveToCSV(timestamp, result, imageFileName); Serial.println("Inference result: " + String(result) + " saved to CSV."); } void setup() { Serial.begin(115200); // SDカード初期化 if (!SD.begin()) { Serial.println("SD card initialization failed."); while (1); } // 学習済みモデルの読み込み File modelFile = SD.open("/model.nnb"); if (!modelFile) { Serial.println("Failed to open model file."); while (1); } if (dnnrt.begin(modelFile) < 0) { Serial.println("Failed to initialize DNNRT."); while (1); } p // RTC初期化 RTC.begin(); // カメラ初期化 theCamera.begin(); theCamera.startStreaming(true, CamCB); Serial.println("Setup complete."); } void loop() { // メインループは空 } ``` ### 検証結果 #### 分類精度 - 正常な直立:100 % - 転倒状態:0 % Spresenseに接続したHDRカメラで撮影した画像をSpresense上で推論した結果、分類性能が芳しくないことが確認されました。これは、学習時のデータ撮影環境と異なる条件で推論を行ったことが原因と考えられます。 ## テスト用データセットをSDカードに保存し、画像分類モデルを評価 次に、テスト用データセットとして使用した画像をSDカードに保存し、Spresense上で画像を読み込んで分類精度を検証しました。 - 転倒状態の検証画像:5枚 (直立状態の分類精度は100%であるため、転倒状態のみ検証) ```c++ #include <SDHCI.h> #include <DNNRT.h> #include <RTC.h> #define DNN_WIDTH 28 #define DNN_HEIGHT 28 DNNRT dnnrt; SDClass SD; DNNVariable input(DNN_WIDTH * DNN_HEIGHT); const char* testImages[] = {"/test1.jpg", "/test2.jpg", "/test3.jpg", "/test4.jpg", "/test5.jpg"}; const int numTestImages = 5; String getTimestamp() { RtcTime now = RTC.getTime(); char buffer[20]; sprintf(buffer, "%04d-%02d-%02d %02d:%02d:%02d", now.year(), now.month(), now.day(), now.hour(), now.minute(), now.second()); return String(buffer); } int inferImage(uint8_t* imgData, int imgWidth, int imgHeight) { uint16_t resizedBuf[DNN_WIDTH * DNN_HEIGHT]; // 簡易リサイズ(バイリニア補間なし) for (int y = 0; y < DNN_HEIGHT; y++) { for (int x = 0; x < DNN_WIDTH; x++) { int srcX = x * imgWidth / DNN_WIDTH; int srcY = y * imgHeight / DNN_HEIGHT; resizedBuf[y * DNN_WIDTH + x] = imgData[srcY * imgWidth + srcX]; } } // グレースケール化して、DNNに入力 float* dnnbuf = input.data(); for (int i = 0; i < DNN_WIDTH * DNN_HEIGHT; i++) { uint16_t pixel = resizedBuf[i]; float r = ((pixel & 0xf800) >> 8) / 255.0; float g = ((pixel & 0x07e0) >> 3) / 255.0; float b = ((pixel & 0x001f) << 3) / 255.0; dnnbuf[i] = (r + g + b) / 3.0; // グレースケール化 } // 推論実行 dnnrt.inputVariable(input, 0); dnnrt.forward(); DNNVariable output = dnnrt.outputVariable(0); return output.maxIndex(); // 最大値のインデックス(推論結果) } void testInference() { for (int i = 0; i < numTestImages; i++) { String fileName = testImages[i]; File imgFile = SD.open(fileName); if (!imgFile) { Serial.println("Failed to open " + fileName); continue; } int fileSize = imgFile.size(); uint8_t* imgData = new uint8_t[fileSize]; imgFile.read(imgData, fileSize); imgFile.close(); Serial.println("Testing " + fileName); int result = inferImage(imgData, 64, 64); // 仮に64x64の画像とする Serial.println("Inference result for " + fileName + ": " + String(result)); delete[] imgData; } } void setup() { Serial.begin(115200); // SDカード初期化 if (!SD.begin()) { Serial.println("SD card initialization failed."); while (1); } // 学習済みモデルの読み込み File modelFile = SD.open("/model.nnb"); if (!modelFile) { Serial.println("Failed to open model file."); while (1); } if (dnnrt.begin(modelFile) < 0) { Serial.println("Failed to initialize DNNRT."); while (1); } // RTC初期化 RTC.begin(); Serial.println("Starting test inference..."); testInference(); } void loop() { // ループ処理なし } ``` ### 検証結果 5枚の検証画像(テスト用画像)すべてにおいて、直立状態と誤って分類されてしまった。 # おわりに SpresenseのHDRカメラを用いて、直立と転倒を判別する画像分類モデルを構築しました。しかし、学習用画像データを収集した際と同じカメラ・撮影環境を使用したにもかかわらず、分類精度が低いという結果になりました。これは推測ですが、モデルの構築方法やデータの前処理に課題があった可能性があります。 なお、Sony Neural Network Consoleを使用することで、コーディングなしで簡単に画像分類モデルを構築できました。