admin 管理员组

文章数量: 1184232

HiChatBox:当AI看家,宠物吃饭也讲“身份认证” 🐾

你有没有过这样的经历:刚给自家猫主子倒好粮,转头发现邻居家的流浪猫已经蹲在碗前吃得正香?😅 或者家里两只狗为了抢食差点打起来,而你只能无奈叹气:“能不能按顺序来啊!”

这可不是个例。在多宠家庭中,“谁吃谁的、吃多少”早已成了智能喂养的核心难题。传统的定时投喂器就像个“无差别发粮机”,根本不管来的到底是喵星人还是汪星人,更别说个性化管理了。

于是,我们决定搞点真家伙—— HiChatBox ,一个会“认脸”的智能投喂系统。它不光知道你是谁,还能说:“哦,是小花啊,今天还没吃,来,给你100g猫条;旺财?你上午刚吃过,等等吧!” 😎


为什么非得“看得见”才能喂?

要实现精准投喂,第一步就是 身份识别 。靠RFID项圈?成本高还容易丢。靠重量感应?压根分不清是谁。唯一的解法,是让设备“睁开眼睛”。

所以我们选了 HiSilicon Hi3516DV300 这颗“视觉大脑”。别看它名字拗口,这家伙可是专为边缘视觉AI设计的狠角色!

“为什么不用树莓派加摄像头?”
——功耗太高!待机一天就得充电,哪像它, 2W都不到 ,插电即用,三年如一日守着你家饭碗。

这颗SoC可不只是个处理器,它是集大成者:
- ARM926EJ-S主控跑系统;
- ISP图像信号处理模块,弱光下也能拍清楚(再也不怕晚上偷吃被抓);
- NPU神经网络加速单元,算力高达0.5TOPS,足够跑轻量CNN模型;
- 支持H.264/H.265编码,顺便还能兼职安防监控 👀。

最关键是——所有AI推理都在本地完成, 照片从不上传云端 ,隐私安全拉满🔒。

我们在上面部署了一个精简版MobileNetV1-small模型,输入128x128的小图就能完成宠物面部特征提取。训练时用了知识蒸馏技术,模型压缩到 不足2MB ,准确率却仍保持在95%以上,简直是“小身材大智慧”。

// 加载模型,准备就绪!
std::shared_ptr<hiai::ModelAgent> model_agent_ = std::make_shared<hiai::ModelAgent>();
int ret = model_agent_->Load("/models/pet_face_recognition.om", config);
if (ret == 0) {
    printf("🐶🐱 模型加载成功,开始识主!");
}

一旦检测到动静(比如PIR传感器触发),立刻拍照→预处理→推理→输出宠物ID。整个过程不到800ms,等你家主子站定,饭都已经快出来了。


谁说了算?当然是“云+端”联动!

识别完了,接下来怎么办?总不能只在家干活,啥也不告诉主人吧?

这时候就得请出我们的通信担当—— ESP32 ,这位老兄身怀绝技:Wi-Fi + BLE 双模全开,既能连路由器上云,又能靠蓝牙快速配网。

想象一下这个场景:新设备拆箱,手机打开App,自动搜到 HiChatBox_XXXX 的蓝牙信号,点一下,秒传Wi-Fi密码,全程无需输入任何信息。是不是比那些要扫二维码、输ssid的设备友好太多了?💡

而且它还支持MQTT协议与云端对话,状态实时同步:

// 每分钟上报一次状态
String status = "{\"pet\":\"miaomiao\",\"last_feed\":\"2025-04-05T10:30:00\",\"food_level\":75}";
client.publish("device/status/01", status.c_str());

你在公司摸鱼的时候,手机突然弹出通知:“🐱 小花刚刚吃完早餐,今日份已达标。” ——瞬间治愈打工人的疲惫 😭

更酷的是,你还能反向控制:
- 点个按钮远程投喂;
- 设置儿童锁防止娃乱按;
- 查看历史记录分析饮食规律。

甚至断网也不怕!本地缓存策略照样执行,恢复连接后自动补传日志,真正做到“离线不断服”。


粮够不够?我们“眼秤双修”!

光会认脸还不够,万一饭桶空了呢?难道让猫主子饿着等你回家加粮?

传统方案常用红外对射判断料位,但问题不少:粉尘一遮就没信号,或者结块挡着光,误报“还有粮”,结果电机空转……

所以我们来了个“组合拳”—— 红外+压力传感器双冗余检测

  • 红外对射 装在筒壁两侧,快速判断是否有料堆积(响应<100ms);
  • 称重传感器 放在底部,配合HX711芯片测总重,精度±5g;
  • 软件层面做融合判断 + 温漂补偿,避免热胀冷缩影响读数。
float weight = scale.get_units();           // 实际克数
bool ir_blocked = digitalRead(IR_SENSOR_PIN) == LOW;  // 是否挡光

if (weight < 50 || !ir_blocked) {
    send_alert("LOW_FOOD");  // 双重确认才报警,减少误报
}

当两个传感器都说“快没了”,App立刻推送提醒:“⚠️ 粮食只剩3%,请尽快补充!” 再也不用担心出差一周回来发现全家饿瘫 😅


整体怎么搭?一张图看懂闭环逻辑

[宠物靠近] → [PIR唤醒]
               ↓
         [摄像头拍照]
               ↓
      [Hi3516DV300本地识别]
       ↙                    ↘
[不是目标宠物]          [验证通过]
                            ↓
                   [MCU驱动步进电机]
                            ↓
                 [螺旋送料 + 振动防堵]
                            ↓
             [更新余粮 → ESP32上报云端]
                            ↓
                   [App推送进食通知]

整套流程全自动闭环,没有任何人工干预。机械结构也下了功夫:
- 全铜齿轮减速电机,寿命超10万次;
- 螺旋送料设计,不怕颗粒卡住;
- 间歇振动清堵机制,轻微抖两下就通了。

就连电源都考虑周全:DC 5V供电 + 备用电池,停电也不丢设置。


我们解决了哪些“真实痛点”?

痛点 解法
多宠争食 面部识别区分个体,仅授权宠物可触发
孩童误操作 App开启儿童锁,禁用物理按键
断网失联 本地缓存策略,恢复后自动同步
食物受潮结块 螺旋结构+振动清堵,保障出粮顺畅
隐私担忧 图像本地处理,仅上传事件摘要

特别是隐私这块,我们坚持一条底线: 原始图像绝不上传 。哪怕黑客攻破服务器,他也只能看到“旺财于10:30被投喂100g”这样的结构化数据,看不到任何画面。


未来还能怎么玩?

现在只是开始。有了这套“感知-决策-执行-通信”一体化架构,扩展性极强:

  • 语音互动 :加上麦克风阵列,喊一声“小花吃饭啦”,自动出粮;
  • 健康监测 :结合进食频率、体重变化,预警潜在疾病;
  • 行为分析 :识别焦虑、挑食等异常行为,生成健康报告;
  • OTA升级 :固件远程更新,越用越聪明。

甚至可以接入Home Assistant、米家、Apple HomeKit,成为智能家居的一环。以后你说“嘿 Siri,让小花吃点零食”,它真能听话执行!


最后想说…

HiChatBox 不只是一个投喂器,它是 第一双真正属于宠物的“数字眼睛” 。它不再把动物当成模糊的“生物体”,而是记住每一只的名字、习惯和需求。

技术的意义,从来不是炫技,而是让人(和宠物)的生活变得更温柔一点。❤️

而这套系统的设计思路—— 边缘AI + 双模通信 + 多传感器融合 + 本地隐私保护 ——也为更多智能设备提供了可复用的模板:无论是喂鱼、喂鸟,还是照看老人、儿童看护,都可以沿用这一范式。

也许不久的将来,每个家庭都会有一个默默工作的“AI管家”,不吵不闹,只在关键时刻说一句:“别担心,我已经安排好了。”

🐾 准备好了吗?你的毛孩子,值得被“认出来”。

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

本文标签: 投喂 宠物 系统 HiChatBox