戴上頭盔,蒙上口罩,走進售樓處瞧一瞧。如此魔幻的一幕并非電影中的黑色幽默,而是現實中的“科技恐慌”。前不久,網上流傳的購房者“蒙面看房”視頻引發熱議。按照房産圈的解釋,房企用人臉識别技術将到訪客戶劃分爲自然來訪和中介渠道,再分别給出不同的購房折扣。購房者擔心被“劃錯陣營”,無奈出此下策。因涉嫌不當收集、使用個人信息,目前南京市相關部門已通知多家售樓處,要求拆除人臉識别系統。
用科技手段将客戶分成“三六九等”後進行區别對待,企業無論怎麽粉飾這種行爲,都難以掩蓋商業道德上的瑕疵。企業追求利潤無可厚非,社會大衆擔心的不是企業營銷策略上的精打細算,而是在智能技術的幫助下,企業“看人下菜”變得更簡單,隐形歧視變得更常見,消費者合法權益更難得到保障。前有手機APP“大數據殺熟”,今有售樓處“同人不同價”,若不能爲智能技術劃定使用邊界,像“蒙面看房”這樣荒誕的事情就會一再上演,人們對智能技術就會産生懷疑,甚至是恐慌。
一些企業對智能技術的不當運用,看似是“腦洞大開”,實際上是“萬事俱備隻欠東風”。對企業來說,理想的消費者最好搞不清商品的質量怎麽看、供求是否緊張、品牌價值有多大。信息越是不對稱,企業的營銷就越靈活,賺取高額利潤的可能性也就越大。很多企業刻意維持信息不對稱的優勢,但消費者可以通過觀察、對比、問詢等方式掌握一定的信息,特别是互聯網技術的發展一舉打破了傳統的信息壟斷。但智能技術的出現,讓企業再一次掌握了主動權。消費者的購買力、行爲習慣甚至是性格偏好都可以通過數據收集、智能分析得出,一旦被精準畫像,消費者在商家的營銷攻勢面前,就喪失了相當程度的選擇權和知情權。
小到打車費用的幾元幾角,大到購房優惠的數千數萬,僅僅是商業上的價格歧視就讓人難以接受。然而,智能技術的運用空間遠不止于此,它活躍在安檢、招聘甚至司法審判領域,帶來了不少社會問題。以人工智能爲例,它在自我學習的過程中也會接觸、吸收人類社會的偏見與負面信息,遭到“數據污染”;甚至在算法設計上就存在偏差,用看似客觀的數據得出充滿偏見的結論。美國亞馬遜公司曾解散過一個人工智能招聘團隊,因爲他們設計出的人工智能程序極端“重男輕女”,會自動給女性求職者降低分數。可見,智能技術擺脫不了人的影響,做不到足夠客觀,若是一些企業再出于一己私利使用不當,産生的影響将難以想象。
智能技術的自身缺陷需要通過科技進步逐漸解決,而使用時的“規矩”則應一開始就立下,在堅持中不斷完善。我們要向人臉識别系統的濫用說不,明确在哪些場合能夠使用,在程序上有哪些步驟,數據又該怎麽管理。我們要向大數據系統的濫用說不,理順整體數據分析和個别數據使用之間的關系,防止大數據淪爲“割韭菜”的工具。我們要向人工智能系統的濫用說不,在确保技術的透明與公正之前,在技術的使用中留下足夠的溫度。爲智能技術立規矩,法律要跟上,企業應配合,社會需重視,這不是一座城市、一個行業的事情,而應成爲公共治理中的日常圖景。