昨天我们关注啦这个点名与vivo进行合作交流的事情,下面将给大家来谈一谈。本次本人看过的感想。感想一话说在这个圈子里有很多圈友不停的提出,哎,这个避障功能啥时候出来呀?后续会不会开发这个避障功能啊。特别是我们在圈子里经常见到的这个什么火箭男孩的用户。相信他昨天也去看了这场发布会。平常点名出行一更新的时候,他直接来的第一句话就是这个避障功能啥时候出来呀?点名后续会不会开发这个避障功能啊?避障功能对我们盲人用户起着很大的作用哦。我不知道火箭男孩这个用户,你昨天去那个yy频道和抖音频道的那个用户名称是不是叫做火箭超人呐?我估计应该是你吧你也听到了点名那里的回答,所以以后呢可不要提一些无聊的问题,毕竟点名你那里已经给了你一个准确的回答,避障功能在目前的技术来看的话是没办法做到百分之百。满足你心里的要求。毕竟昨天汪总也说了,目前市面上的智能眼镜也好,应用导航也好,虽然它也有避障功能,但是呢它有以下几个毛病没办法突破的。大多数都是要靠自己的记忆力和靠自己的聪明机智才可以顺畅的使用导航。避开障碍物大家一直也在关注无障碍圈子里相关的信息,对吧?今年的4月份啊,不知道是什么所谓的清华团队开出了什么导盲机器狗。但是目前只是试点阶段,但是他们吹的那个天花乱坠的什么处理器传感呐以及避开障碍物啊,这些应该是他们预期的想象。如果让我们全盲用户解放双手,全程让机器狗带着你的话,也许这是不切实际的。这是第一点。第二点就是网络的延迟。大家也知道目前避开障碍物的时候,他接触的是那个网络数据传输。万一你走着走着走到一个山区不好的地方,网络信号突然中断,那不得变成了横冲直撞的人呢?也许有人就说呐,那个苹果不是有那个什么所谓的红外传感器和雷达传输吗?这苹果手机有倒是有,但是呢我看了那些短视频的用户使用苹果手机。来进行行走的时候,他会朗读前面的障碍物,但是呢有以下几个弊端。第一个弊端就是有时候明知道检测到前面有门,他朗读是开着的,实际上是关着的。也就是有时候他检测播报不准确,这就是第一个弊端。第二个弊端就是使用这个什么蝙蝠软件功能啊,听说耗电比较大。所以这个也是不切实际的。第三点就是虽然现在我们体验上了那个图像描述功能很强大,但是有时候你让这个AI模型描述的时候,如果你的摄像头不模糊的情况下,他描述的挺准确的。那万一你的摄像头很模糊不清的话,它乱描述一通。正如昨天那个vivo团队所说的那样,虽然他可以帮你描述前面的物体,但是呢有时候给你乱描述一通。正如前几个星期在那个好像是在爱芒论坛呢,还是在争渡论坛看到。有一个网友啊他把那个摄像头对准那个蛋糕,结果他就给你描述成一坨翔。所以这个要慢慢的积累,慢慢的训练以及慢慢的去适应这个AI模型,如何优化能够描述的更准确。这就是第一点。第二天昨天也有人提出点名出行,后续能不能增加路线记忆以及更新一下点名出行。结果两位主持人是这样跟你们解答的。由于工程量比较大,我们一直管着点名这边各种各样的更新和合作,点名出行的话可能很少去维护。但是我们也很庆幸第三方的高德软件也在进行无障碍适配,小五说了,我觉得呢专业的事情交给专业的人去做,希望高德导航这边的无障碍后面会做的越来越好。其实我也来再补充一下。我们盲人圈子里不只是有点名出行这一家。盲人圈子里后面也有很多盲人工程师开发出了专为我们打造的盲用地图导航软件。举个例子,譬如试课导航。白马地图春芽地图是正版。这三个盲用导航软件。平常给我们出行已经够用的了。特别是近期重新更新的这个试课导航。他们也在努力的优化后面的版本。所以呀大家平常不要总是咬着点名出行这一块肉不放。要多多去给那三家的盲用地图导航,提出你自己宝贵的想法和建议。说不定后面那三家盲用导航做的越来越好,这样以来的话,我们的选择性就更多了。这是第2点。第三点,那就是昨天汪总也说到,自从这个AI模型出来过后呢,他的能力越来越强。不仅可以解答你的问题,甚至有些AI模型能提升到帮你描述视频里面的内容。但是呢目前只是个初级阶段,我们没办法使用到。譬如我们平常刷短视频的时候,有些短视频他是拼接成好几十张照片在画面滚动着,而我们只听到那个背景音乐的播放,就是不知道画面是个什么东东。这个时候我们就可以借助这个全屏视觉对话啊,就知道这个画面是什么内容。甚至有些拼接图片的时候,他会用字幕的形式告诉你这是一个怎样的视频场景。但是有些视频它没有字幕。甚至好几十张照片不停的滚动着。我们不可能时时刻刻用全屏视觉对话去捕捉,它只能够捕捉到前几张,后面几张滚动着都不知道是什么内容。所以呀现在的技术仅限于静态描述画面上的是什么内容?动态的话。我们相信未来五年后,十年后会慢慢的突破。到那个时候,只要人家发一个拼接成好几十张照片的视频过来,直接一个实时描述就知道诶,画面上现在正在进行的是什么照片滚动是什么场景啊?这就是以下昨天我对这次发布会的感想了。
目录
昨天我们关注啦这个点名与vivo进行合作交流的事情,下面将给大家来谈一谈。本次本人看过的感想。感想一话说在这个圈子里有很多圈友不停的提出,哎,这个避障功能啥时候出来呀?后续会不会开发这个避障功能啊。特别是我们在圈子里经常见到的这个什么火箭男孩的用户。相信他昨天也去看了这场发布会。平常点名出行一更新的时候,他直接来的第一句话就是这个避障功能啥时候出来呀?点名后续会不会开发这个避障功能啊?避障功能对我们盲人用户起着很大的作用哦。我不知道火箭男孩这个用户,你昨天去那个yy频道和抖音频道的那个用户名称是不是叫做火箭超人呐?我估计应该是你吧你也听到了点名那里的回答,所以以后呢可不要提一些无聊的问题,毕竟点名你那里已经给了你一个准确的回答,避障功能在目前的技术来看的话是没办法做到百分之百。满足你心里的要求。毕竟昨天汪总也说了,目前市面上的智能眼镜也好,应用导航也好,虽然它也有避障功能,但是呢它有以下几个毛病没办法突破的。大多数都是要靠自己的记忆力和靠自己的聪明机智才可以顺畅的使用导航。避开障碍物大家一直也在关注无障碍圈子里相关的信息,对吧?今年的4月份啊,不知道是什么所谓的清华团队开出了什么导盲机器狗。但是目前只是试点阶段,但是他们吹的那个天花乱坠的什么处理器传感呐以及避开障碍物啊,这些应该是他们预期的想象。如果让我们全盲用户解放双手,全程让机器狗带着你的话,也许这是不切实际的。这是第一点。第二点就是网络的延迟。大家也知道目前避开障碍物的时候,他接触的是那个网络数据传输。万一你走着走着走到一个山区不好的地方,网络信号突然中断,那不得变成了横冲直撞的人呢?也许有人就说呐,那个苹果不是有那个什么所谓的红外传感器和雷达传输吗?这苹果手机有倒是有,但是呢我看了那些短视频的用户使用苹果手机。来进行行走的时候,他会朗读前面的障碍物,但是呢有以下几个弊端。第一个弊端就是有时候明知道检测到前面有门,他朗读是开着的,实际上是关着的。也就是有时候他检测播报不准确,这就是第一个弊端。第二个弊端就是使用这个什么蝙蝠软件功能啊,听说耗电比较大。所以这个也是不切实际的。第三点就是虽然现在我们体验上了那个图像描述功能很强大,但是有时候你让这个AI模型描述的时候,如果你的摄像头不模糊的情况下,他描述的挺准确的。那万一你的摄像头很模糊不清的话,它乱描述一通。正如昨天那个vivo团队所说的那样,虽然他可以帮你描述前面的物体,但是呢有时候给你乱描述一通。正如前几个星期在那个好像是在爱芒论坛呢,还是在争渡论坛看到。有一个网友啊他把那个摄像头对准那个蛋糕,结果他就给你描述成一坨翔。所以这个要慢慢的积累,慢慢的训练以及慢慢的去适应这个AI模型,如何优化能够描述的更准确。这就是第一点。第二天昨天也有人提出点名出行,后续能不能增加路线记忆以及更新一下点名出行。结果两位主持人是这样跟你们解答的。由于工程量比较大,我们一直管着点名这边各种各样的更新和合作,点名出行的话可能很少去维护。但是我们也很庆幸第三方的高德软件也在进行无障碍适配,小五说了,我觉得呢专业的事情交给专业的人去做,希望高德导航这边的无障碍后面会做的越来越好。其实我也来再补充一下。我们盲人圈子里不只是有点名出行这一家。盲人圈子里后面也有很多盲人工程师开发出了专为我们打造的盲用地图导航软件。举个例子,譬如试课导航。白马地图春芽地图是正版。这三个盲用导航软件。平常给我们出行已经够用的了。特别是近期重新更新的这个试课导航。他们也在努力的优化后面的版本。所以呀大家平常不要总是咬着点名出行这一块肉不放。要多多去给那三家的盲用地图导航,提出你自己宝贵的想法和建议。说不定后面那三家盲用导航做的越来越好,这样以来的话,我们的选择性就更多了。这是第2点。第三点,那就是昨天汪总也说到,自从这个AI模型出来过后呢,他的能力越来越强。不仅可以解答你的问题,甚至有些AI模型能提升到帮你描述视频里面的内容。但是呢目前只是个初级阶段,我们没办法使用到。譬如我们平常刷短视频的时候,有些短视频他是拼接成好几十张照片在画面滚动着,而我们只听到那个背景音乐的播放,就是不知道画面是个什么东东。这个时候我们就可以借助这个全屏视觉对话啊,就知道这个画面是什么内容。甚至有些拼接图片的时候,他会用字幕的形式告诉你这是一个怎样的视频场景。但是有些视频它没有字幕。甚至好几十张照片不停的滚动着。我们不可能时时刻刻用全屏视觉对话去捕捉,它只能够捕捉到前几张,后面几张滚动着都不知道是什么内容。所以呀现在的技术仅限于静态描述画面上的是什么内容?动态的话。我们相信未来五年后,十年后会慢慢的突破。到那个时候,只要人家发一个拼接成好几十张照片的视频过来,直接一个实时描述就知道诶,画面上现在正在进行的是什么照片滚动是什么场景啊?这就是以下昨天我对这次发布会的感想了。