专家:AI,算法应致以谨慎的措施

像他们的人类同行一样,算法表明他们能够犯错误。一位专家建议谨慎的方法来快速推进的技术,因为没有过于自满。

由Anthony Clark Carpio,Burbank领导者 / April 3, 2019
Shutterstock

(TNS)—Kartik Hosanagar准备将他的家变成了未来之一。他期待着将他的恒温器,电视,灯泡和其他支持互联网的智能设备连接,并用手机,平板电脑或他的声音控制所有这些智能设备。

宾夕法尼亚大学沃顿省沃顿学院的技术和数字商务教授,一切都挂钩,新安排晴朗几个月—直到有一天,他的电视机开始自身靠近和关闭。

事实证明,一位帮助Hosanagar设置他聪明的家的朋友仍然可以进入他的家,无意中从家里控制他的电视。

“在设置过程中的某个时候,我们切换到手机并使用电视应用程序来设置它,” Hosanagar said. “所以当他试图打开他的电视时,他会意外地打开我和关闭。”

当技术教授仍然需要一步并重新考虑智能家庭时,它就在那一点上,如果需要一个聪明的家,并且思考它的意思是拥有算法和人工智能是他日常生活的一部分。

Hosanagar将于下午7点位于Burbank的Buena Vista分支图书馆。星期三晚上免费举办讨论他的书,“A Human’S机智的指南:算法如何塑造我们的生活以及我们如何保持控制,”潜入人工智能的益处和风险以及运行它们的算法。

他说算法在各种应用中出现。他们’每当有人使用亚马逊时都使用了’S Alexa或Google Assistant,或者当某人通过Netflix或Spotify和新电影,表明,艺术家或歌曲都是根据他们的观看或听力习惯而建议的。

“查看像火种一样的约会应用程序。几乎所有的比赛来自算法建议,” Hosanagar said. “如果您去工作场所,请招聘人员被要求查阅算法,以弄清楚哪些应用程序和邀请谁。”

他补充说,即使医生也使用算法帮助做出更好的决定如何治疗特定患者。

虽然使用算法可能有利于消费者和企业,但Hosanagar说’达到使用人工智能的缺点。

Hosanagar说,Facebook是替代其使用算法策划趋势新闻饲料的人的编辑,因为人类被指控在政治上偏见的情况下。然而,更换它们的人工智能并不擅长整理假新闻故事。

2010年,由于交易商使用的自动交易算法欺骗了自动交易算法,股市在一天内坠毁了近万亿美元。

“We’重新开始看到算法不仅能够在某些人类决策中看到的失败,而且我们在人类中看到了很多主观性,如种族偏见或性别偏见,” Hosanagar said.

为了确保人类在他们消费用户之前获得这些算法,他的书中的Hosanagar轮廓他称之为算法的权利—一系列规则,以遵守开发计划和人工智能时。

一个想法是要求企业透明度如何利用消费者’制定算法或简单地告诉某人的数据用于做出决定。

Hosanagar表示,在2018年I / O主题在I / O主题期间推出其双工技术后,谷歌表示这条规则的一个很好的例子。

成千上万的人看到谷歌助手叫发廊并安排预约,目睹了一个人工智能与呼叫者相互作用,就像它是一个真实的人一样。

人工智能与人类之间的谈话令人惊讶和担心公众,主要是由于缺乏透明度。谷歌官员所说,只要使用此功能,Google Assistant将通过向他们与程序交谈的行的另一端通知人员来开始对话。

“We’重新朝某种类型的AI或机器学习’越来越像一个黑匣子,即使是开发人员也可以’T告诉你程序后面的逻辑’s decision,” Hosanagar said. “我认为推动透明度将迫使开发人员思考他们使用的模型的可解释性。”

©2019年伯班克领袖(加利福尼亚州格伦泰)。分发由Tribune Content Agency,LLC。


永远不会错过每日Govtech今天的故事时事通讯。

订阅


E.Republic平台& Programs