而深网的底层又是暗网,这部分网络层蕴含着大量的信息,有不少机构或个体对这一部分内容有一点点想法。
因为并不纯粹是一些很难被公众接受的内容,也有一些大胆的猜想、畅想等等知识。
所以,谷歌、百度等就想让爬虫爬得更深一点,获得更多的互联网深度。
但,如果按照陆安的说法,获取信息的方式都会发生革新,那影响就大了去。
陆安点点头,“这个是肯定的,现在获取信息的方式太原始了,基本上从网络发展起,到现在就没有过改变,在信息交互更快的当下,这种获取信息的形式不够迅速。”
但,陆安偏偏不说会有什么样的获取方式。
因为,他也不太确定。
难道真的会是人工智能自动规整信息?
这样的话,公共网络信息的区域就能从百分之四变成了百分之九十九,最后的那部分是不开放的封闭私有专用网络。
想想觉得应该不会,但继续通过现有的原始的搜索引擎?
索引爬虫数据又不够快。
所以,具体是什么样的,不好说。
未来会怎样?
说实话,真的很难说会有什么标准答案。
……
……