在刚过去的 5 月召开的I/O 2016 开发者大会上,Google 向我们介绍了一些与地理位置和情境相关的开发者功能,其中包括 Android Nearby 和 Google Awareness(现已开放公众使用)。在新 API 的加持下,应用开发人员将能够利用起当前设备的情境信息(比如状态和地理位置)以便向用户提供动态、个性化的体验。
包括 Google 和苹果在内科技企业,早已将目光瞄向了基于情境的内容、消息、状态等数据。苹果的“iBeacon”、高通的 Gimbal,都被当做前沿技术在宣传。
Google Awareness API 有着相同的目标,但不需要"beacon"或蓝牙等东西,而是传感器和 Android 智能机/平板电脑早已能够获知的数据。
具体说来就是,该 API 定义了七个元数据情境来源,包括时间、地理(经纬度)、位置、活动(步行/跑步等)、beacons 信标、耳机(已插入或拔出)、以及天气。
Snapshot API,顾名思义,它可以联系上下文并截取当前环境的一组快照。Google 拿出了 SuperPlayer Music 应用作为例子,它能够为用户提供外出锻炼或收听音乐的推荐。
至于 Trulia 房地产网站,则利用了 Google Awareness API 的地理围栏(Fences)功能。开发者可以借助该 API 对不同的情景作出反馈,而不是不停地拍摄快照。
[…]
Introducing the Awareness API - Google I/O 2016
需要指出的是,Fence API 和其它情景感知平台/服务,均为电池续航而作出了设计上的优化。当然,工具的好坏,还是取决于什么人在使用它。
比如后者就可能会被用来推送恼人的、侵入性的情景感知广告,希望这种情况越少越好。
[编译自:SlashGear , 来源:Google]