姜嶽升回到家後,感覺胸前好像壓了一塊石頭,茶飯懶餐。
他一直在不停地思考一個問題,為什麼在試驗場,人們用肉眼一眼就能看出來機器人的偽裝?而機器人確不能。
其實,在試驗場,不管機器人是否改變偽裝的形式,單個也好、聚集也好,我們人類都能輕鬆看出來。就好像我們看見一匹正吃草的馬以後,我們也能辨認飛奔的馬、打滾的馬。
這還是因為我們的大腦捕捉到了很多機器人捕捉不到的特徵。
也就是說,我們還是需要在識別單個機器人特徵上下功夫。如果能抓住機器人足夠多的特徵,不管他怎麼偽裝,都能一眼識破。
想到這裡兒,姜嶽升覺得應該徹底改變思路,把重點放在機器人外觀特徵的建模上,而不是放在環境建模上,環境是千變萬化的,我們建模的速度不可能跟得上環境的變化,而我們的目標是機器人、不是環境,只要抓住機器人足夠多的特徵,就可以以不變應萬變。
他突然想起了AI大模型,於是在手機上開啟AI大模型終端,輸入:請問,監控是如何區分人和其他運動物體的?
很快,大模型的答案來了:
第一、識別輪廓特徵,包括十個方位的輪廓特徵;
第二、識別結構特徵,包括肢體部位的相對位置特徵和比例特徵;
第三、識別運動特徵,包括站立、走、跑的特徵;
第四、識別面部特徵,包括瞳孔距離、兩耳寬度、鼻尖眉梢距離;
第五、識別運動輪廓特徵,包括雙腿擺動角度、雙腿與軀幹角度、雙臂角度、雙臂與軀幹角度;
第六、識別運動結構特徵,包括頭部、上臂、腿部位置關係;
看到了大模型上的描述,姜嶽升立刻有了主意,因為機器人的結構是模仿人類製造的,識別人的這些特徵大多數是可以直接移植過來的。只需要讓機器人能夠準確地區別人類和機器人不就行了嗎?
想到這裡,他進入了AI大模型的程式設計入口,輸入:“請編寫區分人和其他運動物體的程式”
幾秒鐘後,答案來了,AI大模型顯示出一個五千多行的完整程式。
第二天,姜嶽升集齊了方案組的組員,向大家說明了自己的新思路。
“你這不是把前面的方案徹底推翻了嗎?”史俊有些不解地問。
“是的,雖然前面的方案是我提出來的,但是我現在認為那不是一個好方案,算是一個臨時起意的方案,不能解決根本問題,而今天我提出的方案才是符合邏輯的第一性解決方案。”
“那我們前面的工作不是都白做了嗎?”史俊很無奈地說。
“確實,大部分工作都白做了,但是我們如果繼續沿著原來的路子走下去,將來需要付出的工作量可比新方案大得多,所以,我們應該及時止損!”