6

手把手教你做一个天猫精灵(四) - 小奶球

 1 year ago
source link: https://www.cnblogs.com/littlebutt/p/16755857.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

上一章讲到如何将程序写入到ESP8266 WiFi模块中,实现物联网终端对硬件的控制。本章将通过fubuki-iot实现自定义硬件控制。同时给出一个替代百度API的方案。

自定义语义模型

在第一章的“提醒事项”的例子中,fubuki-iot就展现了语义模型的功能。它将命中语义模型的命令作为参数调用给定的函数,并重定向给ACOUSTICS,从而实现和用户交互的功能。以此类推,要实现和硬件交互就只需要重定向给MESSAGE,通过MQTT消息实现硬件的操控。

拿智能洗衣机举例,假设洗衣机有以下几个功能:

  • 以快洗/漂洗/脱水模式启动洗衣机
  • 预约X分钟后启动洗衣机
  • 暂停洗衣机
  • 重新启动洗衣机

这五个功能就会对应五个语义模型。现在拿第一个语义模型举例,首先在mods内新建一个python文件命名为washing_machine.py,并构建一个语义模型类:

@SemanticsGroup.add_model
class WashingMachineSemanticModel(SemanticsModel):
    code = 'washing_machine'
    frm = SemanticsFromEnum.USER
    topic = ''
    regex = '以(.*)模式启动洗衣机'
    regex_num = 2
    redirect = SemanticsRedirectEnum.MESSAGE
    func: SemanticsFunc = washing_machine_semanticsss_func

这个模型前三项和之前一样,正则表达式这次只有一个分组用来确定模式,所以分组数就是2(加上第0个分组,即全文)。然后这次重定向就是消息。处理函数需要返回一个FunctionDeviceModel,函数类似这样:

def washing_machine_semanticsss_func(*args) -> FunctionDeviceModel:
    mode = args[1]
    # do something here
    return FunctionDeviceModel(
        smt_code='washing_machine',
        topic='wm/mode',
        is_raw=False,
        acoustics=f"好的,洗衣机将会以{mode}模式启动",
        data={
            'mode': ''
        }

    )

中间处理过程忽略,关键在于这个返回值。这次topic字段必填,表示发送MQTT消息的topic,因为发送的payload是一个JSON数据,所以is_raw为False。这里的acoustics是返回给用户的语音提醒,data即payload数据,实际情况会复杂一点。

自定义语音处理模块

在前面的例子中,我们都是利用百度API实现语音识别和语音合成的,这次我们将其替换成PocketSphinx。根据官方文档,可以直接构造一个AudioFile并遍历其中的文字信息,即可获得语音识别结果。

首先,需要构造一个类继承AsrProcessor,并实现其中的asr方法。然后在通过工厂类将该类包含进去,比如:

@AsrProcessorFactory.set
class PocketSphinxAsrProcessor(AsrProcessor):
    def asr(self, path: str) -> Optional[str]:
        res = ''
        for word in pocketsphinx.AudioFile(audio_file=path):
            res += word.__str__()
        return res if res != '' else None

在这个方法中就是通过遍历AudioFile获取语音识别信息并返回。最后,在.env文件中表明调用这个类:

ASR_PROCESSOR=PocketSphinxAsrProcessor

注意:默认的PocketSphinx只支持英文识别,你可以在这里找到不同语音的模型。并替换默认的模型。然后以参数的形式传给AudioFile,比如:

for word in pocketsphinx.AudioFile(audio_file=path,
                                    hmm=os.path.join(model_path, 'zh-cn'),
                                    lm=os.path.join(model_path, 'zh-cn.lm.bin'),
                                    dict=os.path.join(model_path, 'cmudict-zh-cn.dict')):
            res += word.__str__()

除了ASR_PROCESSOR语音识别模块以外,还有三个模型可供自定义替换,替换方法如下

模块名称 .env字段 需要实现的方法
语音识别模块 ASR_PROCESSOR asr
语音合成模块 TTS_PROCESSOR tts
麦克风模块 DEVICE_REC awake和record
扬声器模块 DEVICE_PLY play

到本章为止关于fubuki-iot的相关功能大致介绍完了,理论上讲也确实能满足一个基本的物联网智能终端(智能音箱)的功能。但是这个项目除了拿去做科创竞赛或者毕业设计似乎用处不大,因为它不能和现实生活中家居打通,下一章将介绍一种转发家用路由数据的方法实现用户对智能家居数据的控制。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK