基于RFID的销售管理与消费信息采集系统设计

戴闽鲁++崔丰驿+雷国平+何红亮+刘志远+杨志军



摘 要: 基于射频识别技术(RFID)设计了一种在商场中能够识别与追踪消费者购物时对商品倾向度的系统,该系统通过RFID定位商品在商店中被消费者的移动情况,利用WiFi实现消费者在店内的定位,同时利用摄像机视频图像对消费者进行会员识别和人体动作行为识别,实现对消费者信息的采集与追踪,从而为商店管理层提供科学的市场分析。通过服务器与消费者手机应用程序(APP)通信,可为消费者提供当前所处位置的商品相关信息,提供无人导购、自助购物的服务体验。
关键词: 射频识别; WiFi; 模式识别; 系统设计
中图分类号: TN92?34 文献标识码: A 文章编号: 1004?373X(2017)09?0159?04
Abstract: A system based on radio frequency identification (RFID) which can identify and track the tendency degree of consumer′s interest in commodities in the stores was designed. This system locates the commodities moved by the consumer in the store through RFID. The wireless fidelity (WiFi) is used to locate the consumer in the store. The video image collected by camera is adopted to identify the VIP and human movement behavior of the consumer to collect and track the consumer information, which provides a scientific market analysis for the store manager. The communication between the consumer′s mobilephone application (APP) and server can provide the commodity related information of the current location for the consumer, so the consumer can enjoy the shopping without guidance and self?shopping.
Keywords: RFID; WiFi; pattern recognition; system design
0 引 言
随着电子商务的高速发展,以百货商场为代表的传统实体购物商店的生存空间日益被压缩,百货商场不断向智能化和网络化发展。目前国内没有将射频识别技术(Radio Frequency Identification,RFID)应用于百货商场的成功案例。因而本文提出一种基于RFID的新型应用场景,可以在现实中为消费者搭建一个有效需求和有效供给的匹配平台[1]。
本文以消费者在大型商场服装品牌店的购物模式为主要研究对象,设计了一套消费者和商店管理层的双向交互系统。
对商店管理层可提供如下信息:
(1) 在某一时间段消费者光顾某商品的人次数。
(2) 消费者在某一商品前的滞留时间。
(3) 消费者对某一商品的浏览、试用、购买率等。
对消费者可提供如下信息:
(1) 向消费者手机APP中发送该消费者面前商品的產地、材料、工艺、设计理念等商品相关信息。
(2) 消费者可用手机直接下单,避免了去收银台排队等候。
(3) 通过APP浏览促销信息并了解自己所需商品的具体摆放位置。
(4) 对商店管理者提供的信息也可根据商店管理层决策对消费者开放。
1 系统总体设计
本系统由客户端和服务器两个部分组成,客户端包括用户手机APP和商店管理层数据分析客户端,APP用来给用户提供购物时的数据服务,管理层客户端用来给商店管理者提供数据分析。系统架构图如图1所示。系统硬件包括含WiFi收发方式的RFID读写器、被动式电子标签、摄像机群等部分。服务器主要有两大功能:一方面是提供定位服务;另一方面是采集消费者消费模式的相关信息。总体来说,创建数据库客户端和服务器对定位用户来说都是透明的,定位用户即直接定位的就是用户APP[2?4]。
本文均以大型商场的服装品牌店为例,当消费者进入店中时,消费者手机连接到服务器所在的网络,使得服务器、店内各个节点的RFID读写器和消费者手机APP处于同一局域网内,这样便可实现消费者的定位,从而服务器给消费者手机APP提供消费者面前衣服的相关信息。通过RFID读写器采集衣服被顾客移动情况的数据,发送到服务器进行数据分析。系统工作流程图如图2所示。
2 具体实现
系统设计的具体实现分别介绍了商品及消费者的定位、信息采集与模式识别的详细流程,其中涉及了两项关键技术,即模式识别与室内定位技术。
2.1 商品定位的实现
本系统采用RFID读写器和被动式RFID电子标签实现商品在店内的定位。RFID读写器通过射频识别信号自动识别目标对象并获取相关数据,无须人工干预,可识别高速运动物体并可同时识别多个RFID标签,其基本原理是利用射频信号和空间耦合(电感或电磁耦合)传输特性实现对被识别物体的自动识别。在店内的各个节点如衣柜、收银台、试衣间、休息区等安放RFID读写器,在待售服装上贴上电子标签,通过天线与RFID电子标签进行无线通信,可实现对标签识别码和内存数据的读出或写入操作。当顾客发现感兴趣的衣服时,当顾客对衣服进行翻转观看、把衣服从衣架上取下、带到试衣间试穿等活动时,RFID读写器可通过识别衣服上的电子标签读取其信号强度,把获取的相关信息发送到数据库进行分析处理,从而读取衣服的相关位置信息,并统计衣服的款式、型号和被试用时间等。
2.2 人员定位的实现
本系统采用带WiFi模块的RFID读写器实现消费者在室内的定位。电磁波在空气中的传播速度是已知的,信号发送端与接收终端之间的距离可以由信号传输时间和速度相乘得到。接收方利用信号的到达时间计算信号在介质中的传送时间,从而计算传播距离。这样,接收端的位置就限制在以发送端为圆心的圆周上。若电磁波从RFID读写器到被测目标的传播时间为电磁波传输速度为则被测目标位于以RFID读写器位置为圆心,以为半径的圆上。如果同时有三个以上的RFID读写器收到被测目标的无线信号,则被测目标的二维位置的坐标可由以RFID读写器为圆心的三个圆的交点确定,此为三角定位法,如图3所示。在检测到消费者具体位置的同时,服务器根据当前具体位置信息向手机APP发送顾客所在位置的相关衣服的信息,这样消费者便可以全面详细地了解此时面前的衣服,并可选择试用、在线支付等。
2.3 人体行为识别和人脸识别
2.3.1 运动目标检测
人体动作识别首先需要在初始数据中获得包含动作信息的感兴趣区域,这一预处理过程在人体动作识别中称为运动目标检测。本文采用动作视频的动作分割进行运动目标检测。动作分割的目的是将这些基本动作分离出来从而得到容量更小但包含足够运动信息的数据,并以数学符号的形式表达出人体动作[5?8]。
2.3.2 动作特征提取和理解
为简化人体动作行为识别的预处理过程,便于直接对人体动作进行特征提取和理解,本文采用人体动作数据库——INRIAXMAS数据库,其作为初始数据的采集样本,从而避免了运动目标检测过程带来的精度和效率问题,然后从动作底层数据中抽取部分特征信息对人体动作进行表征。INRIAXMAS数据库在文献[7]中提出,进而被广泛应用于多视角情形下的动作数据库。它包含14种行为( 看手表、挥手、抓头、坐下、起立等)在5个视角获得,室内方向和头顶一共安装5 个摄像头,光照和背景基本不变。可以较好地采集消费者对衣服进行动手浏览试用等一些基本动作。
本文采用模板匹配法对动作特征进行理解,该方法事先对每一动作建立起特征数据样本模板,识别时只需按时间顺序将获取的待测动作特征数据与样本模板进行匹配,通过计算两者之间的相似度来判断是否属于样本动作。人体动作识别中采用时序模板——MHI和MEI实现对特征的匹配。MEI 反映了人体动作发生的区域及强度,MHI 则在一定程度上反映人体动作发生的时间及随时间的变化情况。
在人体动作特征提取的基础上进行动作特征理解。动作特征理解可以看作是一个在空间或时空领域将提取到的人体运动特征与先验知识进行对比,通过对数据的分析实现动作分类的过程。
人体行为识别的整个流程图如图4所示。
2.3.3 人脸识别
本系统在商店入口处设置摄像头,对进店顾客进行视频拍照识别,分析是否为本店会员,可为商店对于会员顾客感兴趣商品提供数据分析[9?11]。人脸识别流程图如图5所示。
3 系统应用
3.1 硬件及软件环境
本设计用到的RFID读写器是凌达伟业UHF RFID一体式读写器,采用欧洲频率标准,可定制WiFi通信接口,电子标签采用UHF无源电子标签。摄像机采用宽动态摄像机,内嵌东芝Visconti图像识别芯片,这款Visconti 3芯片内包含64 GB屏蔽式堆读内存Mask ROM,2 MB SRAM,支持DDR2 533 MHz内存,可对面部、动作识别检测有一定的辅助作用。数据应用系统采用Windows 7及更高版本,界面开发语言为C#。
3.2 实驗
针对本文论述的系统特性,在某百货商场服装店内进行测试,设计的每种实验场景中包括读取RFID电子标签的信号强度、人员的室内定位精度等几个方面,图6为50个无源标签定位结果仿真图,图7为误差折线图,平均误差值为0.201 4。
4 结 语
针对传统百货商场管理层不能较好地获取消费者购物选择倾向等信息的问题,设计了一种基于RFID的商品销售管理以及识别与追踪消费者购物模式的双向交互系统,不仅实现了消费者购物倾向信息的采集,同时实现了店内无人导购、自助购物的消费模式。实验证明,该系统工作稳定,操作简便,能较好地实现设计的功能,在未来有很大的应用前景。
参考文献
[1] NGUYEN H L, CASTELLI E, DAO T K, et al. Multimodal combination of GPS, WiFi, RFID and step count for user loca?lization [C]// Proceedings of 2014 International Conference on Ubiquitous Information Technologies and Applications. [S.l.]: Springer Berlin Heidelberg, 2014: 675?681.
[2] 彭梅,郑步生.一种手持式超高频RFID阅读器的设计[J].现代电子技术,2014,37(23):80?83.
[3] LAI Y L, CHENG J. A Cloud?storage RFID location tracking system [J]. IEEE transactions on magnetics, 2014, 50(7): 1?4.
[4] ARAI K, TOLLE H. Color radiomap interpolation for efficient fingerprint WiFi?based indoor location estimation [J]. International journal of advanced research in artificial intelligence, 2013, 2(3): 253?258.
[5] KE S R, THUC H L U, LEE Y J, et al. A review on video?based human activity recognition [J]. Computers, 2013, 2(2): 88?131.
[6] MAHBUB U, IMTIAZ H, AHAD M A R. Action recognition based on statistical analysis from clustered flow vectors [J]. Signal, image & video processing, 2014, 8(2): 243?253.
[7] WEINLAND D, RONFARD R, BOYER E. Free viewpoint action recognition using motion history volumes [J]. Computer vision and image understanding, 2006, 104(2/3): 249?257.
[8] TAO D, JIN L, WANG Y, et al. Rank preserving discriminant analysis for human behavior recognition on wireless sensor networks [J]. IEEE transactions on industrial informatics, 2014, 10(1): 813?823.
[9] BOBICK A F, DAVIS J W. The recognition of human movement using temporal templates [J]. IEEE transactions on pattern analysis and machine intelligence, 2001, 23(3): 257?267.
[10] WANG J, LU C, WANG M, et al. Robust face recognition via adaptive sparse representation [J]. IEEE transactions on cybernetics, 2014, 44(12): 2368?2378.
[11] YANG M, ZHANG L, SHIU S C K, et al. Gabor feature based robust representation and classification for face recognition with Gabor occlusion dictionary [J]. Pattern recognition, 2013, 46(7): 1865?1878.