性色av不卡无码一区二区_這裏隻有亚洲一区二区三区一级滛视频這裏每日更新_激情五月婷婷中文_在线观看韩国三级中文字幕_日本人妻和老头中文字幕

不少公司說自家的服務(wù)是AI,其實(shí)卻是人假扮的

發(fā)布時(shí)間:2018.07.09  作者:網(wǎng)易科技  瀏覽次數(shù):3106次  

  網(wǎng)易科技訊 7 月 9 日消息,《衛(wèi)報(bào)》撰文揭秘“假AI”的興起。人工智能近年來已經(jīng)成為熱詞走入大眾視線,有的科技公司也對外宣稱自己的服務(wù)是由人工智能驅(qū)動的,但實(shí)際上它們是披著AI外衣的人工服務(wù)。 

201807090834524806 (1).png

  以下是文章主要內(nèi)容:

  打造一項(xiàng)由人工智能驅(qū)動的服務(wù)并非易事。事實(shí)上,一些初創(chuàng)公司發(fā)現(xiàn),讓人類像機(jī)器人一樣行動比讓機(jī)器像人類一樣行動要更加便宜、更加容易。

  “利用人來做事可以讓你跳過很多技術(shù)和業(yè)務(wù)發(fā)展方面的挑戰(zhàn)。很明顯,這不能規(guī);,但它允許你建立起某種東西,在一開始跳過困難的部分!盧eadMe的首席執(zhí)行官格雷戈里·科貝格(Gregory Koberger)說道。他說他遇到過很多“假AI”。 

  “這實(shí)際上是用人類來對AI進(jìn)行原型設(shè)計(jì)。”他稱。

  《華爾街日報(bào)》本周刊文提到了這種做法,重點(diǎn)談到被谷歌允許訪問用戶郵箱的數(shù)百名第三方應(yīng)用開發(fā)者。

  在圣何塞公司Edison Software的例子中,人工智能工程師們?yōu)g覽了數(shù)百名用戶(個人身份信息經(jīng)過處理)的個人電子郵件信息,以期改進(jìn)“智能回復(fù)”功能。該公司沒有在其隱私政策中提及有人會查看用戶的電子郵件。

  《華爾街日報(bào)》的文章著重談到的第三方遠(yuǎn)非第一個那么做的人。 2008 年,致力于的Spinvox公司被指控利用在海外呼叫中心的人工而不是機(jī)器來完成將語音郵件轉(zhuǎn)換為文字信息的工作。

  2016 年,彭博社也說過人類每天 12 個小時(shí)假裝是X.ai、Clara等日程安排服務(wù)的聊天機(jī)器人,指出了這種困境。這種工作單調(diào)乏味讓人麻木,員工們都說他們期待著被機(jī)器人取代的那一天的到來。

  2017 年,商業(yè)費(fèi)用管理應(yīng)用程序Expensify承認(rèn),它一直使用人工來處理至少一部分它對外聲稱用其“智能掃描技術(shù)”(smartscan technology)來完成的收據(jù)轉(zhuǎn)錄工作。那些收據(jù)的掃描照被發(fā)布到亞馬遜的Mechanical Turk眾包勞動工具上,然后由上面的低薪工作者們?yōu)g覽和抄錄那些收據(jù)的信息。

  “我想知道Expensify的SmartScan用戶是否知道輸入他們的收據(jù)信息的其實(shí)是MTurk眾包工作者!薄氨姲ぷ髡、Twitter上的零工經(jīng)濟(jì)勞工擁護(hù)者羅謝爾·拉普蘭特(Rochelle LaPlante)說道,“我在查看某人的Uber收據(jù),上面有他們的全名以及上下車的地址!

  就連在人工智能領(lǐng)域投入巨資的Facebook,也依賴人工來為其通訊應(yīng)用Messenger提供虛擬助手服務(wù)。

  在一些情況中,人類被用來訓(xùn)練人工智能系統(tǒng)并提高它的準(zhǔn)確性。一家名為Scale的公司為一群人類員工提供自動駕駛汽車和其他由人工智能驅(qū)動的系統(tǒng)的訓(xùn)練數(shù)據(jù)。例如,Scale員工將查看攝像頭或傳感器傳來的信息,然后在邊框內(nèi)給汽車、行人和騎自行車的人貼上標(biāo)簽。有了足夠多這樣的人工校準(zhǔn),人工智能將學(xué)會識別這些物體。

  在其他的情況中,企業(yè)會假裝能成功:告訴投資者和用戶它們已經(jīng)開發(fā)出一種可擴(kuò)展的人工智能技術(shù),但實(shí)際上它們是偷偷地依賴于人類智能。

  心理學(xué)家、Woebot(一種用于心理健康支持的聊天機(jī)器人)的創(chuàng)始人艾莉森·達(dá)西(Alison Darcy)將該做法描述為“巫師般的設(shè)計(jì)技術(shù)”。

  “你是在模擬某件事的最終體驗(yàn)。很多時(shí)候,人工智能幕后是有一個人在操控,而不是算法!彼f。她還指出,建立一個良好的人工智能系統(tǒng)需要“大量的數(shù)據(jù)”,有時(shí)候,在進(jìn)行那樣的投入之前設(shè)計(jì)師想要知道他們想要打造的服務(wù)是否有足夠多的需求。

  她說,這種方法不適用于像Woebot這樣的心理支持服務(wù)!白鳛樾睦韺W(xué)家,我們受到道德準(zhǔn)則的約束。不欺騙別人顯然是其中一個倫理原則!

  研究表明,當(dāng)人們認(rèn)為自己是在和機(jī)器交談而不是與人交談時(shí),他們往往更能敞開心扉,會表露更多的信息,因?yàn)閷で笮睦斫】祹椭蝗丝醋魇且环N見不得人的事。

  來自南加州大學(xué)的一個團(tuán)隊(duì)用一位名叫艾莉(Ellie)的虛擬心理治療師進(jìn)行了測試。他們發(fā)現(xiàn),當(dāng)退伍軍人知道艾莉是一個人工智能系統(tǒng)而不是有人在背后操縱機(jī)器時(shí),他們更容易表露自己的癥狀。

另一些人認(rèn)為,公司應(yīng)該對其服務(wù)的運(yùn)作方式始終保持透明。

  對于企業(yè)假稱利用人工智能提供服務(wù)但實(shí)際上是由人類提供的做法,拉普蘭特說,“我不喜歡那樣做。對我來說,那感覺是不誠實(shí)的,具有欺騙性的,我可不希望我使用的服務(wù)出現(xiàn)這樣的情況!

  “從工作者的角度來看,感覺我們被推到了幕后。我不希望自己的勞動力為轉(zhuǎn)頭跟客戶謊稱一切的公司所利用!

  這種道德窘境也讓人聯(lián)想到假裝是人類的人工智能系統(tǒng)。最近的一個例子是谷歌的機(jī)器人助手Google Duplex,它可以用“嗯”和“呃”等語氣詞來進(jìn)行極其逼真的電話通話,代人完成預(yù)約和預(yù)訂事務(wù)。

  在最初引發(fā)極大的爭議之后,谷歌說它的人工智能會向電話另一端的人類表明自己的身份。

  達(dá)西說,“在他們的演示版本中,在低影響的對話中,感覺有點(diǎn)欺騙性!北M管預(yù)訂餐廳座位可能看起來是一種沒什么大不了的互動,但同樣的技術(shù)如果落入壞人手中,操控性可能會大得多。

  例如,如果你能模擬某位名人或政治家的口音,在電話通話中表現(xiàn)得像是真人一樣,會發(fā)生什么樣的事情呢?

  達(dá)西指出,“人工智能已經(jīng)讓人產(chǎn)生了很大的恐懼,在缺乏透明度的情況下,它并不能真正幫助人們進(jìn)行對話!(樂邦)

上一篇:HTC 6月份銷售額暴跌68% 為兩年來最大跌幅     下一篇:不用排隊(duì)拿票了!明年起全國高鐵將推廣刷證或…     返回上一級
Copyright © 2017 Ce0791.com All Rights Reserved 版權(quán)所有·南昌市企方信息技術(shù)有限公司
贛ICP備09013061號 地址:南昌市洪城路8號長青國貿(mào)大廈5樓 支持IPV4和IPV6雙向訪問