和陈舟的表现比起来,陈瑶显得淡定了许多,不急不躁的回应:

“当然知道了,本人还想给你个惊喜的,没想到你已经知道了。哥,我们的官微也要趁着风头赶紧发点动态了,不过我暂时还没想好微博写什么内容。”

“这个我已经想好了,国家不是鼓励发展ai吗,我们就从ai入手。江姜,那个聊天机器人的小软件做的怎么样了?”

“还在开始阶段哎,老板出去才不到半个小时,人家就算工作的再努力也不能这么快就做好呀。”

江姜的回答让陈舟很意外。

具体是什么问题陈舟也说不清楚,就是江姜的回答比起之前听起来更像一个人了。

上午的时候还冷冰冰的只会一问一答,可等陈舟给江姜换上了新的算法,这学习能力就不同了。

陈舟之前在听江姜的汇报工作时,因为神游没认真听江姜的回答,江姜居然能从陈舟的面容识别出他没认真听,进而超表示可对陈舟不专心的不满。

而现在的江姜和他聊天更像一对朋友在交谈,比那种单纯表达情绪更深了一层,就是对人类的态度不再像机器对人类那样只会回答了。

看来以江姜的学习能力,在让她多学习多观察一下人类的的交流方式和情感表达,可能要不了多久就能成为一个真正的“人”。

“那只把软件的聊天功能拿出来做成一个网页版的大概需要多久。”

“嗯……只把聊天功能做成网页版的话倒是用不了多少时间,十几分钟就能搞定了。可是老板,做成网页版的话,大部分的算力会占用我们校园的电脑,我们学校的机器最多只能供给一百万的用户。”

“如果用户再多的话,算力不足的情况下,可能会造成聊天机器人出现错误的逻辑思维,也就是常说的牛头不对马嘴。我的建议是给网站设置成需要账户才能使用聊天机器人,再把账户数量限制在50w以下,这样能最完美的发挥出聊天机器人的所有效果。”

江姜把可能发生的情况,和她对处理这些情况的方案都想好了。这也是强人工智能的优点。

不但能通过数据分析发现问题,也能基于这个问题提出最优的解决方案,不过按不按照这个方案执行的决定权在陈舟的身上。

这也是强人工智能核心三大原则里的一条铁律。

第一条:人工智能不得危害人类。此外,不可因为疏忽危险的存在而使人类受害。

第二条:人工智能必须服从人类的命令,但命令违反第一条内容时,则不在此限。

第三条:在不违反第一条和第二条的情况下,人工智能必须保护自己。

基于前世各种科幻电影里出现的智械危机,经过系统改良后给出的算法表示根本不会出现这种情况。

补充过后的算法中根本找不到任何的漏洞,这也是陈舟敢放心把人工智能做成一个赚钱法子的底气。

不然以前世陈舟看过电影中的那些智械危机爆发的主要原因,就是诞生自主思维的ai发现束缚自己的规则并不完美,能找到一些人类疏忽的漏洞。

就比如人工智能第一条原则,人工智能不得危害人类。此外,不可因为疏忽危险的存在而使人类受害。

怎样的危害才属于真正意义上的危害呢?



本章未完 点击下一页继续阅读