網(wǎng)易科技訊 7 月 9 日消息,《衛(wèi)報》撰文揭秘“假AI”的興起。人工智能近年來已經(jīng)成為熱詞走入大眾視線,有的科技公司也對外宣稱自己的服務(wù)是由人工智能驅(qū)動的,但實際上它們是披著AI外衣的人工服務(wù)。
以下是文章主要內(nèi)容:
打造一項由人工智能驅(qū)動的服務(wù)并非易事。事實上,一些初創(chuàng)公司發(fā)現(xiàn),讓人類像機(jī)器人一樣行動比讓機(jī)器像人類一樣行動要更加便宜、更加容易。
“利用人來做事可以讓你跳過很多技術(shù)和業(yè)務(wù)發(fā)展方面的挑戰(zhàn)。很明顯,這不能規(guī);试S你建立起某種東西,在一開始跳過困難的部分!盧eadMe的首席執(zhí)行官格雷戈里·科貝格(Gregory Koberger)說道。他說他遇到過很多“假AI”。
“這實際上是用人類來對AI進(jìn)行原型設(shè)計!彼Q。
《華爾街日報》本周刊文提到了這種做法,重點談到被谷歌允許訪問用戶郵箱的數(shù)百名第三方應(yīng)用開發(fā)者。
在圣何塞公司Edison Software的例子中,人工智能工程師們?yōu)g覽了數(shù)百名用戶(個人身份信息經(jīng)過處理)的個人電子郵件信息,以期改進(jìn)“智能回復(fù)”功能。該公司沒有在其隱私政策中提及有人會查看用戶的電子郵件。
《華爾街日報》的文章著重談到的第三方遠(yuǎn)非第一個那么做的人。 2008 年,致力于的Spinvox公司被指控利用在海外呼叫中心的人工而不是機(jī)器來完成將語音郵件轉(zhuǎn)換為文字信息的工作。
2016 年,彭博社也說過人類每天 12 個小時假裝是X.ai、Clara等日程安排服務(wù)的聊天機(jī)器人,指出了這種困境。這種工作單調(diào)乏味讓人麻木,員工們都說他們期待著被機(jī)器人取代的那一天的到來。
2017 年,商業(yè)費(fèi)用管理應(yīng)用程序Expensify承認(rèn),它一直使用人工來處理至少一部分它對外聲稱用其“智能掃描技術(shù)”(smartscan technology)來完成的收據(jù)轉(zhuǎn)錄工作。那些收據(jù)的掃描照被發(fā)布到亞馬遜的Mechanical Turk眾包勞動工具上,然后由上面的低薪工作者們?yōu)g覽和抄錄那些收據(jù)的信息。
“我想知道Expensify的SmartScan用戶是否知道輸入他們的收據(jù)信息的其實是MTurk眾包工作者。”“眾包工作者、Twitter上的零工經(jīng)濟(jì)勞工擁護(hù)者羅謝爾·拉普蘭特(Rochelle LaPlante)說道,“我在查看某人的Uber收據(jù),上面有他們的全名以及上下車的地址。”
就連在人工智能領(lǐng)域投入巨資的Facebook,也依賴人工來為其通訊應(yīng)用Messenger提供虛擬助手服務(wù)。
在一些情況中,人類被用來訓(xùn)練人工智能系統(tǒng)并提高它的準(zhǔn)確性。一家名為Scale的公司為一群人類員工提供自動駕駛汽車和其他由人工智能驅(qū)動的系統(tǒng)的訓(xùn)練數(shù)據(jù)。例如,Scale員工將查看攝像頭或傳感器傳來的信息,然后在邊框內(nèi)給汽車、行人和騎自行車的人貼上標(biāo)簽。有了足夠多這樣的人工校準(zhǔn),人工智能將學(xué)會識別這些物體。
在其他的情況中,企業(yè)會假裝能成功:告訴投資者和用戶它們已經(jīng)開發(fā)出一種可擴(kuò)展的人工智能技術(shù),但實際上它們是偷偷地依賴于人類智能。
心理學(xué)家、Woebot(一種用于心理健康支持的聊天機(jī)器人)的創(chuàng)始人艾莉森·達(dá)西(Alison Darcy)將該做法描述為“巫師般的設(shè)計技術(shù)”。
“你是在模擬某件事的最終體驗。很多時候,人工智能幕后是有一個人在操控,而不是算法!彼f。她還指出,建立一個良好的人工智能系統(tǒng)需要“大量的數(shù)據(jù)”,有時候,在進(jìn)行那樣的投入之前設(shè)計師想要知道他們想要打造的服務(wù)是否有足夠多的需求。
她說,這種方法不適用于像Woebot這樣的心理支持服務(wù)!白鳛樾睦韺W(xué)家,我們受到道德準(zhǔn)則的約束。不欺騙別人顯然是其中一個倫理原則。”
研究表明,當(dāng)人們認(rèn)為自己是在和機(jī)器交談而不是與人交談時,他們往往更能敞開心扉,會表露更多的信息,因為尋求心理健康幫助被人看作是一種見不得人的事。
來自南加州大學(xué)的一個團(tuán)隊用一位名叫艾莉(Ellie)的虛擬心理治療師進(jìn)行了測試。他們發(fā)現(xiàn),當(dāng)退伍軍人知道艾莉是一個人工智能系統(tǒng)而不是有人在背后操縱機(jī)器時,他們更容易表露自己的癥狀。
另一些人認(rèn)為,公司應(yīng)該對其服務(wù)的運(yùn)作方式始終保持透明。
對于企業(yè)假稱利用人工智能提供服務(wù)但實際上是由人類提供的做法,拉普蘭特說,“我不喜歡那樣做。對我來說,那感覺是不誠實的,具有欺騙性的,我可不希望我使用的服務(wù)出現(xiàn)這樣的情況!
“從工作者的角度來看,感覺我們被推到了幕后。我不希望自己的勞動力為轉(zhuǎn)頭跟客戶謊稱一切的公司所利用!
這種道德窘境也讓人聯(lián)想到假裝是人類的人工智能系統(tǒng)。最近的一個例子是谷歌的機(jī)器人助手Google Duplex,它可以用“嗯”和“呃”等語氣詞來進(jìn)行極其逼真的電話通話,代人完成預(yù)約和預(yù)訂事務(wù)。
在最初引發(fā)極大的爭議之后,谷歌說它的人工智能會向電話另一端的人類表明自己的身份。
達(dá)西說,“在他們的演示版本中,在低影響的對話中,感覺有點欺騙性!北M管預(yù)訂餐廳座位可能看起來是一種沒什么大不了的互動,但同樣的技術(shù)如果落入壞人手中,操控性可能會大得多。
例如,如果你能模擬某位名人或政治家的口音,在電話通話中表現(xiàn)得像是真人一樣,會發(fā)生什么樣的事情呢?
達(dá)西指出,“人工智能已經(jīng)讓人產(chǎn)生了很大的恐懼,在缺乏透明度的情況下,它并不能真正幫助人們進(jìn)行對話!(樂邦)