
陪伴孩子們嬉戲的智能機(jī)器人
英國(guó)科研工作者不久前開(kāi)發(fā)出一款命名為“智能機(jī)器人”的軟件系統(tǒng),能讓59.3%的測(cè)試者將其誤判為真實(shí)的人類(lèi)。據(jù)研制者羅洛·卡朋特推斷,該系統(tǒng)“或許為研制新一代智能機(jī)器帶來(lái)了契機(jī)”。(據(jù)光明日?qǐng)?bào)9月19日“科技天地”版報(bào)道)
如果說(shuō),人類(lèi)的終極目標(biāo)是使冰冷的機(jī)器成為設(shè)身處地為人類(lèi)“著想”的“助手”,那么,英國(guó)科學(xué)家的成果只僅僅邁出了萬(wàn)里長(zhǎng)征的第一步。因?yàn)?ldquo;說(shuō)”是一回事,“做”卻是另一回事。
社會(huì)事務(wù)的紛繁復(fù)雜,必將在具體行動(dòng)中暴露出這種片面、抽象的對(duì)話方式的不足。目前,信息技術(shù)的發(fā)展已經(jīng)可以實(shí)現(xiàn)機(jī)器人的多元選擇,即由機(jī)器人根據(jù)其軟件內(nèi)的倫理規(guī)約,決定諸如排名先后、利益多寡、評(píng)價(jià)正負(fù)等問(wèn)題。相信不久的將來(lái),機(jī)器人就可以具備相當(dāng)水平的道德決策能力。但是,機(jī)器人的決策是一個(gè)純粹的倫理程序輸出過(guò)程,機(jī)器人本身無(wú)法像人一樣批判地分析問(wèn)題、創(chuàng)造性地提出建議,這就可能導(dǎo)致處理方式的過(guò)分僵化和人文關(guān)懷的缺失,從而造成不必要的損失。
要解決人工智能面臨的倫理瓶頸,就必須一切從實(shí)際出發(fā),建立符合倫理精神的人工智能。辯證法與形而上學(xué)的一個(gè)根本區(qū)別就在于,將實(shí)踐的觀點(diǎn)納入視野,在實(shí)踐的基礎(chǔ)上歷史地、發(fā)展地看待問(wèn)題,得出客觀公允的結(jié)論。歷史告訴我們,即便是同一個(gè)社會(huì)環(huán)境下的倫理準(zhǔn)則,也會(huì)隨著文明的更新和時(shí)間的推移發(fā)生質(zhì)的改變;即便是沒(méi)有任何爭(zhēng)議的倫理禁制,也常常由于事出有因或別有隱情而情有可原。因此,要想讓機(jī)器人擁有近似人類(lèi)的思維邏輯,就必須從人性出發(fā),而不是從倫理教材的金科玉律出發(fā),研究人在面對(duì)具體問(wèn)題時(shí)的思考角度和思維突破口,唯此,才能發(fā)現(xiàn)人類(lèi)道德進(jìn)化的規(guī)律,才能模擬人類(lèi)創(chuàng)新思維的路徑,才能形成高仿真度的推斷程序,從而實(shí)現(xiàn)決策內(nèi)容的辯證,使機(jī)器人成為“含有人類(lèi)感情”的道德決策者。









