多関節デフォルメ2足歩行AIロボット「AIパワー君」
昨年、AIロボット「AIパワー君」というものを作成したのですが、結構苦労したので備忘録としてまとめておこうと思います。
出来上がりはこんな感じです。↓
ロボットの機能は下記の通り。
・chatgptと連携させて会話ができる
・音声での操作
・前後と左右旋回歩行が可能
・カメラを搭載しブラウザから歩行操作可能
・アナログコントローラーで各部関節のみの操作も可能
過去に作成した「パワー君」をベースとしています。
ロボットの構成
ハード
・Raspberrypi ZERO2W
・WM8960 Audio HAT
・スピーカー × 2個
・PCA9685
・サーボモーター × 12個(SG90 × 10, ミニデジタルサーボ2g(正式名称不明)× 4)
・Lipo BT 2000mAh 放電レート2C × 1個
ソフト
プログラムはpythonで書いてます。
ブラウザからの操作についてはhtml,css,js,python cgiで書いています。
作成過程
印刷、塗装
外装は一部変更(micとスピーカーの穴を追加)したパワー君をベースとして印刷し、ホビー用スプレーのメタリックシルバー色で塗装しました。
メタリックのせいかラメが入っていて、スプレー時に空中に舞いまくるので要注意でした。
組立て
部品格納
RaspberryPi ZEROW2にWM8960を取り付けてスピーカーを接続。
WM8960は接続コネクタのピンが長かったの短くしました。(筐体に収まらないため)
配線
サーボモーターを取りつけて基板との配線。
接続のコネクタは場所を取るので全て取り外して直付けしました。
プログラム
コントローラー側、過去作品のパワー君のものとほぼ同一です。
今回はAIロボットということで、chatgptを利用し会話できるプログラムを追加しました。
import pyaudio
import struct
import math
import audioop
import wave
import time
import os
import io
from google.cloud import speech
import openai
from google.cloud import texttospeech
from gtts import gTTS
import pygame.mixer
import Adafruit_PCA9685
import threading
import RPi.GPIO as GPIO
led = 0
pwm = Adafruit_PCA9685.PCA9685()
pwm.set_pwm_freq(60)
a = 350
b = 320
c = 400
d = 360
e = 400
z = 360
g = 370
h = 330
i = 340
j = 430
k = 380
l = 390
time.sleep(1)
pwm.set_pwm(0, 0, a)
pwm.set_pwm(1, 0, b)
pwm.set_pwm(2, 0, c)
pwm.set_pwm(3, 0, d)
pwm.set_pwm(4, 0, e)
pwm.set_pwm(5, 0, z)
pwm.set_pwm(6, 0, g)
pwm.set_pwm(7, 0, h)
pwm.set_pwm(8, 0, i)
pwm.set_pwm(9, 0, j)
pwm.set_pwm(10, 0, k)
pwm.set_pwm(11, 0, l)
time.sleep(0.5)
while led <= 4095:
pwm.set_pwm(12, 0, led)
pwm.set_pwm(13, 0, led)
led = led + 15
#bb = bb + 15
time.sleep(0.01)
led = led - 15
print("off")
time.sleep(2)
while led >= 0:
pwm.set_pwm(12, 0, led)
pwm.set_pwm(13, 0, led)
led = led - 15
#bb = bb - 15
time.sleep(0.01)
led = led + 15
time.sleep(0.1)
pygame.mixer.init()
openai.api_key = "key"
os.environ['GOOGLE_APPLICATION_CREDENTIALS'] = '------.json'
client = speech.SpeechClient()
speech_file = 'output.wav'
chunk = 1024
FORMAT = pyaudio.paInt16
CHANNELS = 1
RATE = 44100
INPUT_DEVICE_INDEX = 0
THRESHOLD = 3000 #700
SILENCE_LIMIT = 3
RECORD_SECONDS = 5
WAVE_OUTPUT_FILENAME = "output.wav"
p = pyaudio.PyAudio()
def get_rms(block):
"""
Returns the root mean square of the audio block.
"""
return audioop.rms(block, 2)
def get_audio_input_device(p, input_device_index, channels=1, rate=44100, frames_per_buffer=1024):
stream = p.open(format=pyaudio.paInt16,
channels=channels,
rate=rate,
input=True,
input_device_index=input_device_index,
frames_per_buffer=frames_per_buffer)
return stream
def ask_gpt(text):
response = openai.Completion.create(
engine="davinci", # 使用する言語モデルを指定する
prompt=text,
max_tokens=1024, # 応答の長さを指定する
n=1, # 応答の候補数を指定する
stop=None, # 応答の終了条件を指定する
)
return response.choices[0].text.strip()
def text_to_speech(text, language, name):
text2speech = gTTS(text, # 音声変換するテキスト
lang=language, # 対応言語(ja:日本語)
)
text2speech.save(name + ".mp3")
return True
stream = get_audio_input_device(p, INPUT_DEVICE_INDEX, CHANNELS, RATE, chunk)
is_recording = False
silence_counter = 0
frames = []
type = "nane"
t_end = time.time()
t_time = 3
text = ""
def recieve():
global led
while(led <= 4095):
pwm.set_pwm(12, 0, led)
pwm.set_pwm(13, 0, led)
led = led + 15
time.sleep(0.01)
led = led - 15
def recieve2():
global led
while(led >= 0):
pwm.set_pwm(12, 0, led)
pwm.set_pwm(13, 0, led)
led = led - 15
time.sleep(0.01)
led = led + 15
def power():
global a, b, c, d, e, z, g, h, i, j, k, l, text
name = "gTTS_Text2Speech"
text = "こんにちは"
language = "ja"
text_to_speech(text, language, name)
pygame.mixer.music.load("gTTS_Text2Speech.mp3")
pygame.mixer.music.play(0)
pwm.set_pwm(12, 0, 0)
pwm.set_pwm(13, 0, 0)
while(e <= 480):
pwm.set_pwm(4, 0, e)
e = e + 2
time.sleep(0.005)
time.sleep(1)
while(z <= 580):
pwm.set_pwm(5, 0, z)
z = z + 2
time.sleep(0.005)
time.sleep(0.5)
while(j <= 520):
pwm.set_pwm(9, 0, j)
j = j + 2
time.sleep(0.005)
time.sleep(3)
pwm.set_pwm(12, 0, 4095)
pwm.set_pwm(13, 0, 4095)
pwm.set_pwm(11, 0, 280)
name = "gTTS_Text2Speech"
text = "パワー"
language = "ja"
text_to_speech(text, language, name)
pygame.mixer.music.load("gTTS_Text2Speech.mp3")
pygame.mixer.music.play(0)
time.sleep(3)
e = 400
z = 360
h = 330
j = 430
#GPIO.output(LED_2,GPIO.LOW)
pwm.set_pwm(12, 0, 0)
pwm.set_pwm(13, 0, 0)
pwm.set_pwm(4, 0, e)
pwm.set_pwm(5, 0, z)
pwm.set_pwm(7, 0, h)
pwm.set_pwm(9, 0, j)
pwm.set_pwm(11, 0, l)
text = ""
def fw():
global a, b, c, d, e, z, g, h, i, j, k, l, text, led
name = "gTTS_Text2Speech"
text = "はい"
language = "ja"
text_to_speech(text, language, name)
pygame.mixer.music.load("gTTS_Text2Speech.mp3")
pygame.mixer.music.play(0)
while(led <= 4095):
pwm.set_pwm(12, 0, led)
pwm.set_pwm(13, 0, led)
led = led + 15
time.sleep(0.01)
led = led - 15
while True:
if(pygame.mixer.music.get_busy()!=True):
break
time.sleep(0.2)
pygame.mixer.music.stop()
time.sleep(1)
text = ""
while(d >= 305):
pwm.set_pwm(1, 0, b)
pwm.set_pwm(3, 0, d)
d = d - 2
b = b - 2
time.sleep(0.005)
while(c <= 470):
pwm.set_pwm(2, 0, c)
pwm.set_pwm(4, 0, e)
pwm.set_pwm(5, 0, z)
pwm.set_pwm(6, 0, g)
c = c + 2
z = z - 2
g = g - 2
e = e - 2
time.sleep(0.005)
while(b <= 320):
pwm.set_pwm(1, 0, b)
pwm.set_pwm(3, 0, d)
d = d + 2
b = b + 2
time.sleep(0.005)
while(c >= 400):
pwm.set_pwm(2, 0, c)
pwm.set_pwm(4, 0, e)
pwm.set_pwm(5, 0, z)
pwm.set_pwm(6, 0, g)
c = c - 2
z = z + 2
g = g + 2
e = e + 2
time.sleep(0.005)
while(b <= 380):
pwm.set_pwm(1, 0, b)
pwm.set_pwm(3, 0, d)
b = b + 2
d = d + 2
time.sleep(0.005)
while(a >= 280):
pwm.set_pwm(0, 0, a)
pwm.set_pwm(4, 0, e)
pwm.set_pwm(5, 0, z)
pwm.set_pwm(6, 0, g)
a = a - 2
z = z + 2
g = g + 2
e = e + 2
time.sleep(0.005)
while(b >= 320):
pwm.set_pwm(1, 0, b)
pwm.set_pwm(3, 0, d)
d = d - 2
b = b - 2
time.sleep(0.005)
while(a <= 350):
pwm.set_pwm(0, 0, a)
pwm.set_pwm(4, 0, e)
pwm.set_pwm(5, 0, z)
pwm.set_pwm(6, 0, g)
a = a + 2
z = z - 2
g = g - 2
e = e - 2
time.sleep(0.005)
while(led >= 0):
pwm.set_pwm(12, 0, led)
pwm.set_pwm(13, 0, led)
led = led - 15
time.sleep(0.01)
led = led + 15
def bk():
global a, b, c, d, e, z, g, h, i, j, k, l, text, led
name = "gTTS_Text2Speech"
text = "はい"
language = "ja"
text_to_speech(text, language, name)
pygame.mixer.music.load("gTTS_Text2Speech.mp3")
pygame.mixer.music.play(0)
while(led <= 4095):
pwm.set_pwm(12, 0, led)
pwm.set_pwm(13, 0, led)
led = led + 15
time.sleep(0.01)
led = led - 15
while True:
if(pygame.mixer.music.get_busy()!=True):
break
time.sleep(0.2)
pygame.mixer.music.stop()
time.sleep(1)
text = ""
while(d >= 305):
pwm.set_pwm(1, 0, b)
pwm.set_pwm(3, 0, d)
d = d - 2
b = b - 2
time.sleep(0.005)
while(c >= 330):
pwm.set_pwm(2, 0, c)
pwm.set_pwm(4, 0, e)
pwm.set_pwm(5, 0, z)
pwm.set_pwm(6, 0, g)
c = c - 2
z = z + 2
g = g + 2
e = e + 2
time.sleep(0.005)
while(b <= 320):
pwm.set_pwm(1, 0, b)
pwm.set_pwm(3, 0, d)
d = d + 2
b = b + 2
time.sleep(0.005)
while(c <= 400):
pwm.set_pwm(2, 0, c)
pwm.set_pwm(4, 0, e)
pwm.set_pwm(5, 0, z)
pwm.set_pwm(6, 0, g)
c = c + 2
z = z - 2
g = g - 2
e = e - 2
time.sleep(0.005)
while(b <= 380):
pwm.set_pwm(1, 0, b)
pwm.set_pwm(3, 0, d)
b = b + 2
d = d + 2
time.sleep(0.005)
while(a <= 420):
pwm.set_pwm(0, 0, a)
pwm.set_pwm(4, 0, e)
pwm.set_pwm(5, 0, z)
pwm.set_pwm(6, 0, g)
a = a + 2
z = z - 2
g = g - 2
e = e - 2
time.sleep(0.005)
while(b >= 320):
pwm.set_pwm(1, 0, b)
pwm.set_pwm(3, 0, d)
d = d - 2
b = b - 2
time.sleep(0.005)
while(a >= 350):
pwm.set_pwm(0, 0, a)
pwm.set_pwm(4, 0, e)
pwm.set_pwm(5, 0, z)
pwm.set_pwm(6, 0, g)
a = a - 2
z = z + 2
g = g + 2
e = e + 2
time.sleep(0.005)
while(led >= 0):
pwm.set_pwm(12, 0, led)
pwm.set_pwm(13, 0, led)
led = led - 15
time.sleep(0.01)
led = led + 15
while True:
try:
block = stream.read(chunk, exception_on_overflow=False)
amplitude = get_rms(block)
if not is_recording:
if amplitude > THRESHOLD:
is_recording = True
print("Recording started")
frames = []
elif is_recording:
if amplitude > THRESHOLD:
silence_counter = 0
# Record audio block
frames.append(block)
type = "on"
print("rokuon")
else:
if type == "on":
#print("on")
cdown = time.time()
#for i in range(0, int(RATE / chunk * RECORD_SECONDS)):
while True:
if time.time() < cdown + 3 and amplitude < THRESHOLD:
block = stream.read(chunk, exception_on_overflow=False)
frames.append(block)
else:
print("aaaaaaaaaaaaaaaaaaaaaaaaaaaaa")
break
type = "off"
silence_counter += 1
if silence_counter > (RATE / chunk) * SILENCE_LIMIT:
is_recording = False
silence_counter = 0
print("Recording stopped")
wf = wave.open(WAVE_OUTPUT_FILENAME, 'wb')
wf.setnchannels(CHANNELS)
wf.setsampwidth(p.get_sample_size(FORMAT))
wf.setframerate(RATE)
wf.writeframes(b''.join(frames))
wf.close()
frames = []
with wave.open("output.wav", "rb") as f:
frames = f.readframes(f.getnframes())
sample_rate = f.getframerate()
sample_width = f.getsampwidth()
channels = f.getnchannels()
print("wait....")
msg = 1
with io.open(speech_file, 'rb') as f:
content = f.read()
audio = speech.RecognitionAudio(content=content)
config = speech.RecognitionConfig(
encoding=speech.RecognitionConfig.AudioEncoding.ENCODING_UNSPECIFIED,
sample_rate_hertz=44100,
language_code="ja-JP",
)
response = client.recognize(config=config, audio=audio)
for result in response.results:
if "{}".format(result.alternatives[0].transcript) == "":
text = ""
frames = []
break
print("Transcript: {}".format(result.alternatives[0].transcript))
text = "{}".format(result.alternatives[0].transcript)
if text != "":
if text == "こんにちは":
power()
elif text == "前に歩いて":
fw()
elif text == "後ろに歩いて":
bk()
else:
th = threading.Thread(target=recieve)
th.start()
messages = [
{"role": "system", "content"},
{"role": "user", "content": text} # ---(※5)
]
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=messages)
print("response" + response.choices[0]["message"]["content"].strip())
text = response.choices[0]["message"]["content"].strip()
msg = 2
language = "ja"
name = "gTTS_Text2Speech"
text_to_speech(text, language, name)
pygame.mixer.music.load("gTTS_Text2Speech.mp3")
pygame.mixer.music.play(0)
while True:
if(pygame.mixer.music.get_busy()!=True):
break
time.sleep(0.2)
pygame.mixer.music.stop()
text = ""
print("Done.")
msg = 3
th = threading.Thread(target=recieve2)
th.start()
except KeyboardInterrupt:
break
GPIO.cleanup()
stream.stop_stream()
p.terminate()
こだわったポイント
・ロボットの電源ON,OFFをタクトスイッチ制御
・電源投入時にWEBサーバー、カメラストリーミング、AI会話プログラム、アナログコントローラープログラムを自動で起動
・音声でのロボット操作
タクトスイッチでの電源ON,OFFは /boot/config.txt に以下のコマンドを追加すればOKです。
dtoverlay=gpio-shutdown,gpio_pin=26,debounce=2000
pinは通常3を利用するそうですが、i2c使用時は使えないので、その場合は以下のコメントアウトを外すと違うピン番号を使う事が出来ます。
#dtparam=i2c_arm=on
最後の数字は2秒になります。スイッチを押して2秒後にシャットダウンになります。これはスイッチのエッジ検出を防ぐ為に秒数を設けています。
カメラストリーミングは起動のシェルスクリプトを作成し、/etc/rc.loal にパスを追加。
コントローラーのプログラムもパスを追加することで起動時にプログラムが走ります。
AI会話プログラムのみ、後述していますがrc.localにパスを追加してもダメでしたので、ターミナルを起動してプログラムを実行する方法にしました。
音声でのロボット操作は、指定したメッセージをmicから拾えば、chatgptにテキストを投げずにそのままサーボ駆動させています。
ハマったポイント
・mjpgstreamerがbullseyeに対応していない(Busterまで)
・WM8960のドライバが bullseye 以降しか対応していない
・ AI会話プログラム の自動起動が上手く行かない
・pythonプログラムのgpioセットアップ時、 WM8960 がエラーを吐く
カメラのストリーミングについては、個人的に使い勝手のいいmjpgstreamerを使用していたのですが、これが旧OSしか対応しておらず、また WM8960のドライバが bullseye 以降しか対応していなかったので先ずここでつまづきました。
パワー君が旧OS( Buster )で作成していたので、出来れば旧OSで進めたかったのですが、どうあがいてもWM8960の旧バージョン対応化が無理そうでしたので bullseye で進める事にしました。
色々さがしていると、下記サイトにて bullseye でのmjpgstreamerの起動方法が書いていましたので利用させて頂きました。↓
続いて、AI会話プログラムの自動起動ですが、電源投入時のプログラム自動起動はrc.localにプログラム名を追加するなど色々あるのですが、上手く行きませんでした。
そこで見つけたのが、「ターミナルを自動起動してからのプログラム実行」でした。この方法だと上手く起動してくれました。参考にしたサイトはこちら↓
最後に、AI会話プログラム実行後に WM8960 関係のエラーについてです。
エラー内容が音声関係だったのですが、色々原因を探っていくとgpioが起因している事がわかりました。
どうやらいくつかのgpioピン(i2c,spi以外のピン)もWM8960の制御に関わっているらしく、例えばgpio19を使おうとすると音声関係のエラーが出ます。この辺りは恐らく WM8960 のデータシートを見ると分かると思いますが、とりあえずgpio6,gpio13など使えば問題はありませんでした。
投稿者の人気記事
-
Ketunorobio
さんが
2024/01/05
に
編集
をしました。
(メッセージ: 初版)
-
Ketunorobio
さんが
2024/01/05
に
編集
をしました。
ログインしてコメントを投稿する