想看一些很酷的东西吗? 尝试一下内置的这个很棒的人工智能功能 iPhone

Apple 不太喜欢使用“人工智能”或“AI”这些词,更常见的是使用更通用的术语“机器学习”。 但你可以称其为 ML、AI,或者任何你想要的名字,它的根源贯穿始终 Apple的产品——尤其是 iPhone。 它用于照片应用程序、相机、键盘、Siri、健康应用程序等。

但它经常以一种感觉上几乎看不见的方式被使用。 当照片为我们将人物图像分组在一起时,我们不会考虑面部识别。 我们不知道每次按下快门按钮时,人工智能在发挥多大作用,才能从如此微小的相机传感器和镜头系统中拍摄出精彩的照片。

如果你想要一个非常明显的 example 人工智能在你的 iPhone,放大镜应用程序就是您的最佳选择。 具体来说,是物体检测模式。 点你的 iPhone 在对象上,您将获得对象的描述以及通常它的位置,所有这些都完全使用设备上的人工智能。 以下是尝试一下的方法。

在放大镜中启用检测模式

首先,打开放大镜应用程序。 您可能已将其添加到控制中心或上的操作按钮 iPhone 15 Pro,但您也可以在应用程序库或通过搜索找到它。

该应用程序旨在帮助人们查看特写细节或阅读细则,并为视障人士提供帮助。 我一直用它来阅读食品包装上的微小成分文字。

从那里,点击最右侧的括号框(在带有 LiDAR 的 iPhone 上),然后点击左侧的文本气泡按钮。 如果你的 iPhone 没有激光雷达,您只会看到文本气泡按钮。 没有看到按钮? 向上滑动缩放滑块即可显示它们。

寻找此按钮(在配备 LiDAR 的 iPhone 上)以进入物体检测模式。

铸造厂

您现在将处于检测模式。 设置齿轮将为您提供查看文本和/或听到您所指向的内容的语音描述的选项。

观看人工智能的工作

现在,只需开始指向您的 iPhone 在事情上! 您将看到视野中的任何内容的文本叠加——动物、物体、植物,凡是您能想到的。 有时可能需要一瞬间的时间来更新,有时会出现一点错误(有时甚至是错误得可笑),但这里显示的图像分析令人印象深刻。 您将获得形容词,不仅可以描述颜色,还可以描述位置和活动。

看一下这个:

铸造厂

它不仅认出了自己是一只猫,而且认出了一只正在睡觉的猫,而且它不仅在一张床上,而且在一张宠物床上。

请注意下面如何 example,它能够描述耳机(白色)、它们的位置(在黑色表面上)以及它与检测到的另一个物体(在计算机显示器旁边)的关系。

铸造厂

当然,有时也会出错。 这不是玻璃桌子,而是玻璃碗。 也许背景中的椅子令人困惑,或者由于所有的面和角度而无法确定碗的形状。

铸造厂

但无论是在室内还是室外,我总是对这个功能能够如此出色地描述它所看到的东西感到惊讶。 问题是:这完全是在设备上进行的。 说真的,尝试把你的 iPhone 在飞行模式下,它的工作原理是一样的。 您不是将视频源发送到云端;而是将视频发送到云端。 没有人知道你在哪里或者你在做什么。

与在云中巨型服务器上运行的人工智能例程相比,这种对象检测和描述的精度并不是很令人印象深刻,需要更多的时间来处理大量的处理能力和庞大的对象识别模型。 多年来,大型科技公司凭借云计算模型已经能够超越这一点。

但这只是一个相对较小的功能,可以在任何现代设备上轻松运行 iPhone,甚至是那些已经有好几年历史的。 这是一个伟大的 example 什么的 Apple 人工智能领域的能力,以及通过更好的代码和更多的培训,我们的 iPhone 未来可以实现的功能,同时尊重我们的隐私和安全。

Related Posts