哥本哈根大學(xué)的研究人員已經(jīng)證明,處理復(fù)雜問題的完全穩(wěn)定機器學(xué)習(xí)算法近乎無法實現(xiàn),這凸顯了對人工智能局限性。
以 ChatGPT 為代表的 AI 浪潮下,機器能比醫(yī)生更準(zhǔn)確解讀醫(yī)學(xué)掃描圖像、能比人類更安全地駕駛汽車,但再優(yōu)秀的算法也存在弱點。
以自動駕駛汽車讀取路標(biāo)為例,如果有人在路標(biāo)上貼有標(biāo)簽,人類駕駛員的注意力通常不會被分散,而機器由于和接受訓(xùn)練的路標(biāo)存在差異,很容易出現(xiàn)分心。
該小組負(fù)責(zé)人阿米爾?耶胡達(dá)約夫(Amir Yehudayoff)教授說:“現(xiàn)實生活中存在著各種各樣的噪音,人類習(xí)慣于忽略這些噪音,而機器卻會感到困惑”。