日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車測(cè)試網(wǎng)

  • 公眾號(hào)
    • 汽車測(cè)試網(wǎng)

    • 在線課堂

    • 電車測(cè)試

基于駕駛員視覺行為的智能多元傳感系統(tǒng)

2022-06-21 23:11:29·  來源:智能汽車開發(fā)者平臺(tái)  作者:Armenta  
 
了解隨著年齡的增長(zhǎng),視覺和注意力行為的變化如何影響駕駛,仍然是研究界研究的課題。然而,很少有人關(guān)注使用傳感和人工智能技術(shù)進(jìn)行此類研究。本文提出了一個(gè)多

了解隨著年齡的增長(zhǎng),視覺和注意力行為的變化如何影響駕駛,仍然是研究界研究的課題。然而,很少有人關(guān)注使用傳感和人工智能技術(shù)進(jìn)行此類研究。本文提出了一個(gè)多源的智能傳感系統(tǒng),它能以98%的準(zhǔn)確率推斷出與五個(gè)汽車駕駛艙區(qū)域相關(guān)的視覺注意(VPoA)。VPoA是由慣性傳感器和面部識(shí)別應(yīng)用程序捕獲的頭部運(yùn)動(dòng)的俯仰、偏航和滾動(dòng)角度推斷出來的。該系統(tǒng)還包括一個(gè)基于平板電腦的應(yīng)用程序,該系統(tǒng)自動(dòng)收集來自駕駛環(huán)境的數(shù)據(jù),例如,速度和位置。它還使注釋器能夠觀察到的駕駛員行為,例如與乘客的交互。我們對(duì)15名年輕人和15名老年人進(jìn)行了一項(xiàng)自然研究,以證明該系統(tǒng)在識(shí)別視覺行為模式方面的功效,這些模式與以前使用傳統(tǒng)數(shù)據(jù)收集方法的研究中所確定的模式相似。一個(gè)新的發(fā)現(xiàn)是,如果有乘客在場(chǎng),年輕組比老年組更頻繁地看腿部。腿部是與使用手機(jī)相關(guān)的VPoA。

圖片


I.引言

誘發(fā)視覺分心的次要工作是導(dǎo)致駕駛者撞車的主要原因,與他們的年齡無關(guān)。視覺分心是一種注意力不集中,被定義為由于執(zhí)行次要活動(dòng)而導(dǎo)致的視線偏離,導(dǎo)致視線偏離道路。了解隨著年齡的增長(zhǎng),視覺和注意力行為的變化如何影響駕駛,仍然是醫(yī)學(xué)、工程和社會(huì)科學(xué)等相關(guān)領(lǐng)域研究界的一個(gè)課題。研究視覺行為有助于確定進(jìn)一步改進(jìn)技術(shù)的領(lǐng)域,例如開發(fā)需要低量工作負(fù)荷的信息娛樂系統(tǒng)和在自動(dòng)駕駛期間吸引視覺注意力的警報(bào)系統(tǒng)。然而,很少有人關(guān)注使用智能傳感技術(shù)來收集駕駛員的視覺注意力以進(jìn)行此類研究。

觀察性研究主要使用攝像機(jī)和眼球追蹤器來收集數(shù)據(jù),這涉及到人類觀察員對(duì)視頻數(shù)據(jù)進(jìn)行編碼以識(shí)別視覺干擾。例如,通過分析一周內(nèi)從 70 名不同年齡的司機(jī)拍攝的視頻記錄,可以確定,與視線向車外看相比,車內(nèi)的分心與視線向車內(nèi)看的增加更相關(guān)。同樣地,一項(xiàng)對(duì)148名青少年和老年人進(jìn)行的基于視頻的觀察研究顯示,使用基于車輛的警告反饋系統(tǒng)并不會(huì)對(duì)進(jìn)行次要工作的可能性有顯著影響作用。最后,最近一項(xiàng)大規(guī)模自然研究的結(jié)果顯示,與中年司機(jī)相比,做次要工作對(duì)30歲以下和65歲以上的司機(jī)來說,風(fēng)險(xiǎn)一直較高。研究還顯示,老司機(jī)做次要工作的頻率遠(yuǎn)遠(yuǎn)低于年輕司機(jī)。在上述作品中,編碼是識(shí)別駕駛員與次要工作相關(guān)的視覺行為的一項(xiàng)基本任務(wù)。編碼被認(rèn)為是一項(xiàng)要求很高的任務(wù),可能需要一個(gè)以上的訓(xùn)練有素的分析員來減少花費(fèi)的時(shí)間和人為錯(cuò)誤。該項(xiàng)目旨在開發(fā)一個(gè)有利于在自然研究中收集數(shù)據(jù)的傳感系統(tǒng),以了解司機(jī)的視覺行為。它支持實(shí)時(shí)收集司機(jī)的視覺注意點(diǎn)(VPoAs)和與駕駛環(huán)境相關(guān)的數(shù)據(jù),如速度和道路類型。該傳感方法基于兩個(gè)前提:

1)頭部姿勢(shì)是預(yù)測(cè)駕駛員意圖一個(gè)很好的指標(biāo),也是估算眼球注視的一個(gè)很好的代表。心理學(xué)家已經(jīng)證明,頭部運(yùn)動(dòng)與掃描信息的目光變化的關(guān)聯(lián)并不限于大范圍的目光變化;

圖片

表1 擬用平臺(tái)來感知司機(jī)的行為數(shù)據(jù)
此外,頭部運(yùn)動(dòng)與任務(wù)性能有關(guān)。也就是說,當(dāng)提取信息的任務(wù)更加困難時(shí),頭部的移動(dòng)會(huì)增加,這在年輕的讀者(6-10歲的兒童)中很明顯。同樣地,在駕駛環(huán)境中,向特定區(qū)域掃視的發(fā)生和持續(xù)時(shí)間取決于任務(wù)的復(fù)雜性。
2)視覺注意點(diǎn)(VPoA)是主要和次要活動(dòng)的適當(dāng)提示。它是車輛駕駛艙內(nèi)的一個(gè)區(qū)域,駕駛員由于注意力轉(zhuǎn)移而調(diào)整頭部方向。例如,主要任務(wù)可能包括查看側(cè)后視鏡和窗戶區(qū)域。而次要任務(wù)可能是低頭使用手機(jī)或與廣播、乘客互動(dòng)。
本文提出了一個(gè)智能多源傳感系統(tǒng),它結(jié)合了一個(gè)單一的可穿戴的慣性傳感器和一個(gè)手機(jī)攝像頭來收集頭部的俯仰、偏航和滾動(dòng)角度。該系統(tǒng)的智能在于其通過k-NN算法從這些角度進(jìn)行VPoA,該算法是一種監(jiān)督式機(jī)器學(xué)習(xí)技術(shù)。該系統(tǒng)還包括一個(gè)平板電腦應(yīng)用程序,用于自動(dòng)收集駕駛環(huán)境數(shù)據(jù),如速度,以及由人工注釋者輸入的數(shù)據(jù),如在紅色交通燈前停車。本文的貢獻(xiàn)在于:
?一個(gè)多源傳感系統(tǒng),與僅有攝像頭的方法相比,能提供最高的VPoA預(yù)測(cè)精度,并包括便于收集駕駛環(huán)境數(shù)據(jù)的組件;
?對(duì)基于k-NN的單個(gè)模型進(jìn)行驗(yàn)證和實(shí)時(shí)測(cè)試,以便從駕駛員的偏航、俯仰和滾動(dòng)頭部運(yùn)動(dòng)中推斷出VPoA;
?一項(xiàng)自然研究證明該系統(tǒng)在識(shí)別年輕人和老年人的視覺行為模式方面的有效性,類似于以前使用傳統(tǒng)數(shù)據(jù)收集方法的研究中所識(shí)別的模式;
?發(fā)現(xiàn)掃視次數(shù)與有/無乘客駕駛之間的新關(guān)系,包括發(fā)現(xiàn)年齡組之間的顯著差異。
本文的其余部分介紹了相關(guān)工作(第二節(jié))、理論背景(第三節(jié))、系統(tǒng)功能(第四節(jié))、系統(tǒng)推理模型的評(píng)估(第五節(jié))、為證明系統(tǒng)功效而進(jìn)行的研究方法(第六節(jié))及其結(jié)果(第七節(jié)),最后是我們的結(jié)論(第八節(jié))。
II.相關(guān)工作
已經(jīng)提出了幾個(gè)傳感平臺(tái)(見表一)來檢測(cè)分心行為,分類為視覺行為、次要任務(wù)和危險(xiǎn)駕駛。其中一些平臺(tái)支持感知與推斷分心有關(guān)的駕駛環(huán)境,并了解分心發(fā)生的背景。駕駛環(huán)境包括以下數(shù)據(jù):i)車輛動(dòng)態(tài),如速度、位置、剎車、車道位置和轉(zhuǎn)向角度;ii)駕駛員動(dòng)態(tài),如頭部姿勢(shì)、身體姿勢(shì)、眼球運(yùn)動(dòng)和生物信號(hào)。
參考文獻(xiàn)[14]提出了一個(gè)基于云的傳感架構(gòu),通過智能手機(jī)的傳感器收集和存儲(chǔ)駕駛數(shù)據(jù)。其目的是促進(jìn)駕駛環(huán)境數(shù)據(jù)的收集,以生成出行的統(tǒng)計(jì)報(bào)告,幫助第三方,如開發(fā)人員,識(shí)別危險(xiǎn)情況。它利用攝像頭來跟蹤和存儲(chǔ)司機(jī)的頭部旋轉(zhuǎn)/傾斜角度、眼球的比率和嘴巴的張開程度。它還使用GPS和IMU傳感器來確定速度、加速度,并使用一個(gè)麥克風(fēng)來記錄噪音水平。參考文獻(xiàn)[15]提出了一個(gè)自動(dòng)模糊集優(yōu)化的框架,該框架從通過多種來源獲得的兩類背景數(shù)據(jù)中估計(jì)危險(xiǎn)駕駛的強(qiáng)度。具體來說,它使用攝像頭、慣性測(cè)量單元和車載診斷儀來收集基于動(dòng)態(tài)車輛的駕駛環(huán)境,如速度、車道偏離和車道坡度。另外,通過智能腕帶和心率監(jiān)測(cè)傳感器,可以識(shí)別駕駛員的情況,如情緒。一個(gè)模擬各種道路場(chǎng)景的實(shí)驗(yàn)表明,結(jié)合兩種類型的環(huán)境使框架比只使用一種環(huán)境更有利地運(yùn)作。
其他工作探討了推斷次要任務(wù)的感應(yīng)方法和算法。例如,在文獻(xiàn)[16]中,通過使用隨機(jī)森林(RF)算法,輸入駕駛模擬器獲得的車輛動(dòng)態(tài)數(shù)據(jù),如轉(zhuǎn)向角和速度,推斷出發(fā)短信的準(zhǔn)確率為85.38%,吃東西的準(zhǔn)確率為81.26% 在[17]中,兩個(gè)可穿戴的慣性測(cè)量單元(IMU)被用來量化司機(jī)的軀干和手腕運(yùn)動(dòng),通過使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)檢測(cè)五個(gè)次要任務(wù),準(zhǔn)確率為87%。推斷出的活動(dòng)包括喝水、發(fā)短信、打手機(jī)、使用觸摸屏和把記號(hào)筆放在杯架上。由于實(shí)驗(yàn)是使用駕駛模擬器進(jìn)行的,因此推斷結(jié)果并未反映車輛運(yùn)動(dòng)對(duì) IMU 測(cè)量的影響。由于最不明顯的任務(wù)是用手機(jī)交談,作者開發(fā)了一種基于圖像的方法,它結(jié)合了一個(gè)用于物體檢測(cè)的深度神經(jīng)網(wǎng)絡(luò)和一個(gè)多層感知器,從耳朵和手的相關(guān)區(qū)域推斷出司機(jī)的狀態(tài),其準(zhǔn)確率為59%。
其他工作也探索了不同的傳感方法和推理方法來識(shí)別視覺注意力(見表二)。例如,在[19]中,作者探索了幾何方法,如受限局部模型、象形結(jié)構(gòu)模型、正字法和縮放技術(shù)(POS),以從面部特征生成的三維頭部模型中識(shí)別俯仰、偏航和滾動(dòng)。通過在自然駕駛過程中收集的數(shù)據(jù)集,所提出的方法可以在 96% 的時(shí)間內(nèi)可靠地跟蹤頭部運(yùn)動(dòng),而俯仰角是最難確定的角度,因?yàn)樗绕胶蜐L動(dòng)呈現(xiàn)更多的誤差。
與我們的工作類似,一些研究集中于從頭部方向的角度推斷出視覺注意力的區(qū)域。參考文獻(xiàn) [20] 提出了一種基于幾何的新方法來實(shí)時(shí)檢測(cè)視線偏離道路 (EOR)。它通過對(duì)安裝在方向盤柱子上的攝像頭捕捉到的面部特征進(jìn)行3-D幾何分析,估計(jì)頭部姿勢(shì)和視線注視。在測(cè)試參與者將目光投向車輛擋風(fēng)玻璃和駕駛室的18個(gè)區(qū)域的情景時(shí),它達(dá)到了90%以上的EOR準(zhǔn)確性。參考文獻(xiàn)[21]提出了一個(gè)頭部跟蹤系統(tǒng),該系統(tǒng)使用兩個(gè)前置攝像頭來捕捉頭部姿勢(shì)的靜態(tài)特征(俯仰、偏航、滾動(dòng)、面部中心和嘴部區(qū)域)和頭部動(dòng)態(tài)特征(平均角速度)。通過隨機(jī)森林(RF)分類器,作者確定,與只使用靜態(tài)特征(85.7%)相比,結(jié)合頭部姿勢(shì)動(dòng)態(tài)特征,可以提供更好的性能(93%)來識(shí)別車輛駕艙內(nèi)的7個(gè)區(qū)域。在 [22] 中,Choi 等人探索了用于虹膜跟蹤的 Haar 特征人臉檢測(cè)器和 MOSSE 過濾器。之后,卷積神經(jīng)網(wǎng)絡(luò) (CNN) 將圖像分類為九個(gè)不同的凝視區(qū)域,準(zhǔn)確率達(dá)到 95%。結(jié)果發(fā)現(xiàn),推斷駕駛員傾向于改變眼睛方向而不是頭部的區(qū)域(例如后視鏡),錯(cuò)誤率最高。在[23]中,提出了一個(gè)基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的注視檢測(cè)系統(tǒng)來估計(jì)多達(dá)8個(gè)注視區(qū)。用相機(jī)收集的頭部姿勢(shì)角度和眼部標(biāo)記,被輸入到DNN中。作者收集了道路上的數(shù)據(jù),以證明該模型的通用性,并采用了省略一個(gè)司機(jī)的交叉驗(yàn)證技術(shù)。獲得的準(zhǔn)確率為86.5%。他們還分析了包括指示司機(jī)正在看哪里的車輛信號(hào)的可行性,這將準(zhǔn)確率提高到92.3%。然而,作者沒有具體說明可以使用什么類型的車內(nèi)傳感器。在[24]中提出了減少當(dāng)收集大型數(shù)據(jù)集來訓(xùn)練一個(gè)推斷視覺注意力的模型時(shí)注釋工作的建議。為此,轉(zhuǎn)移學(xué)習(xí)方法與預(yù)先訓(xùn)練好的CNN模型一起使用,通過在移動(dòng)設(shè)備上回歸來進(jìn)行注視評(píng)估任務(wù)。為了驗(yàn)證這一方法,從模擬環(huán)境中用手機(jī)攝像頭拍攝的圖像中提取出的駕駛員面部和眼部特征推斷出10個(gè)駕駛員注視區(qū)。獲得的準(zhǔn)確率為60.25%。然而,這項(xiàng)研究缺乏實(shí)時(shí)測(cè)試和使用額外的傳感器來收集可用作基本事實(shí)的可靠數(shù)據(jù)集。

圖片

表2 提出的檢測(cè)駕駛員視覺行為的方法
參考文獻(xiàn)[25]提出了一種基于外觀的頭部無姿勢(shì)的眼睛注視預(yù)測(cè)方法,用于駕駛員注意力區(qū)域的估計(jì)。作者應(yīng)用隨機(jī)森林技術(shù)將從數(shù)據(jù)庫(kù)中獲得的頭部矢量和眼睛圖像分類為 18 個(gè)駕駛員的注視區(qū)域。整體準(zhǔn)確率為92.61%,預(yù)測(cè)部分擋風(fēng)玻璃區(qū)域的準(zhǔn)確率最低。如表二所示,基于攝像頭的技術(shù)提供了高精確度的結(jié)果; 然而,當(dāng)司機(jī)的臉被遮擋、大幅旋轉(zhuǎn)或光照變化時(shí),它們不夠可靠。使用IMU可以克服攝像機(jī)系統(tǒng)持續(xù)跟蹤頭部姿勢(shì)的局限性,反之亦然。正如下一節(jié)所解釋的,這些技術(shù)中的每一項(xiàng)都可以抵消另一項(xiàng)的局限性。因此,我們提出了一種結(jié)合IMU和攝像頭的新方法,形成了一個(gè)實(shí)用的傳感系統(tǒng),它能捕捉可靠的頭部方向角度,以預(yù)測(cè)司機(jī)的視覺注意點(diǎn)(VPoA),其準(zhǔn)確度高于其他系統(tǒng)。
III.VPOA感知和推斷方法
A.頭部方位多源傳感
人的頭部方向是用俯仰、滾動(dòng)和偏航運(yùn)動(dòng)來描述的,這些運(yùn)動(dòng)分別在其緯線(X)、縱線(Y)和垂直(Z)軸上進(jìn)行(見圖1a)。這些軸與通常稱為 X、Y 和 Z 軸的參考系進(jìn)行比較,以定義頭部方向。歐拉角被用來量化這種比較,因?yàn)樗鼈儽磉_(dá)了一個(gè)關(guān)于固定坐標(biāo)系的硬性方向。如圖 1.b 所示,θ 是俯仰角或歐拉 X,φ 是滾動(dòng)角或歐拉 Y,ψ 是偏航角或歐拉 Z。為了量化頭部三個(gè)自由度的方向,我們建議在司機(jī)的頭部安裝一個(gè)IMU傳感器,在方向盤上安裝一個(gè)前置攝像頭。每種方法都有以下優(yōu)點(diǎn)和局限性。
正如 Tawari 和 Trivedi (2014)所確定的,偏航角 (Euler Z) 是最相關(guān)的推斷角度,因?yàn)轳{駛員在關(guān)鍵時(shí)刻(例如車道變換和右/左轉(zhuǎn))容易做出較大的頭部運(yùn)動(dòng)。 

圖片

圖1 身體的定向系統(tǒng):a)軸和旋轉(zhuǎn)運(yùn)動(dòng)。b) 相對(duì)于地球的歐拉角。
然而,當(dāng)使用基于攝像頭的系統(tǒng)時(shí),自動(dòng)閉合阻礙了面部特征的可見性,影響了對(duì)頭部方向的估計(jì),特別是在俯仰方面。根據(jù)一項(xiàng)報(bào)道,計(jì)算機(jī)視覺(CV)技術(shù)在跟蹤駕駛員頭部的偏航和滾動(dòng)角度時(shí)比在俯仰角度時(shí)更準(zhǔn)確。因此,目前的CV開放存取庫(kù)提供了可靠的偏航和滾動(dòng)測(cè)量,但在檢測(cè)俯仰角(歐拉X)方面受到限制。
另一方面,IMU 可以有效地估計(jì)駕駛員的俯仰和滾動(dòng),但由于它使用地球作為參考系,因此無法提供對(duì)偏航角 (Euler Z) 的準(zhǔn)確估計(jì)。因此,即使司機(jī)沒有大幅移動(dòng)他/她的頭部,車輛的左轉(zhuǎn)和右轉(zhuǎn)也會(huì)影響頭部方向在其垂直Z軸(偏航)上的估計(jì)。為了彌補(bǔ)現(xiàn)有CV技術(shù)的局限性,我們?cè)隈{駛員的頭上安裝了一個(gè)IMU裝置,它能提供可靠的俯仰和滾動(dòng)估計(jì)。
因此,我們使用多源檢測(cè)方法來捕捉司機(jī)的頭部方向特征,以與俯仰、偏航和滾動(dòng)有關(guān)的歐拉角給出。
B.個(gè)體化推斷法
我們使用K-NN算法(k-NN)來建立由頭部運(yùn)動(dòng)產(chǎn)生的歐拉角和觀察到的VPoA之間的關(guān)系。k-NN可以很容易地實(shí)現(xiàn)個(gè)性化,因?yàn)樗挠?xùn)練階段包括收集和存儲(chǔ)一組訓(xùn)練樣本和相應(yīng)的類標(biāo)簽。同時(shí),其他技術(shù)需要收集訓(xùn)練樣本并進(jìn)行訓(xùn)練階段,以生成映射函數(shù)或推理模型。
由于不同的因素可能會(huì)影響看VPoA所需的頭部移動(dòng)量,如司機(jī)的身高、駕駛風(fēng)格或視覺處理速度,而視覺處理速度會(huì)隨著年齡的增長(zhǎng)而受到影響,我們決定在我們的傳感平臺(tái)中加入個(gè)性化的推理模型。k-NN的個(gè)性化為我們的傳感平臺(tái)提供了優(yōu)勢(shì),可以輕松配置,對(duì)不同人群進(jìn)行研究。此外,k-NN 是一種易于實(shí)現(xiàn)的機(jī)器學(xué)習(xí) (ML) 方法,在我們之前的研究 [31] 中表現(xiàn)出高性能,該研究將一組分類器與在受控駕駛條件下收集的數(shù)據(jù)進(jìn)行了比較。相比之下,在目前的工作中,我們?cè)u(píng)估 k-NN 以實(shí)現(xiàn) VPoA 的實(shí)時(shí)推斷。

圖片

圖2 通過傳感系統(tǒng)檢測(cè)到的VPoA

圖片

圖3 通過傳感系統(tǒng)檢測(cè)到的VPoA
C.視覺注意點(diǎn) (VPoA)
本研究確定了車輛駕駛艙的五個(gè)區(qū)域(見圖2),與執(zhí)行主要和次要任務(wù)有關(guān)。道路被視為主要的VPoA,因?yàn)樗撬緳C(jī)通勤時(shí)關(guān)注的主要焦點(diǎn)。左邊和右邊的VPoA用于監(jiān)控后視鏡。當(dāng)司機(jī)與前座乘客進(jìn)行視覺互動(dòng)時(shí),也使用右邊的VPoA。無線電/溫度和腿部 VPoA大多與更換收音機(jī)和用手機(jī)閱讀/發(fā)短信分別有關(guān)。


IV.系統(tǒng)的設(shè)計(jì)和實(shí)施


如圖 3 所示,系統(tǒng)架構(gòu)包括三個(gè)子系統(tǒng),托管在專用硬件上,用于在自然研究期間收集數(shù)據(jù): 數(shù)據(jù)收集應(yīng)用(DCA)、姿態(tài)和航向參考系統(tǒng)(AHRS)和面部識(shí)別應(yīng)用(FRA),它們通過藍(lán)牙進(jìn)行通信。它還包括MATLAB應(yīng)用程序,用于處理所收集的數(shù)據(jù),以便進(jìn)行后期分析。


A.姿態(tài)和頭部參考系統(tǒng) (AHRS)


AHRS安裝在駕駛員的頭上,為DCA提供俯仰AHRS(歐拉X)和滾動(dòng)AHRS(歐拉Y)的角度。它由 IMU 傳感器組成,即陀螺儀、加速度計(jì)和指南針。AHRS是Yost實(shí)驗(yàn)室的3空間傳感器?迷你藍(lán)牙,它包括一個(gè)專有的過濾算法(QGRAD2?)來估計(jì)俯仰和滾動(dòng)。它的尺寸為 30 毫米 x 30 毫米 x 13 毫米,重 9 克,電池續(xù)航時(shí)間為 4 小時(shí)。


圖片

圖4 DCA的用戶界面,用于收集:(a)參與者信息。(b)訓(xùn)練數(shù)據(jù);(c),(d)駕駛環(huán)境,以及(e)標(biāo)記的數(shù)據(jù),以驗(yàn)證VPoA推理組件


B.人臉識(shí)別應(yīng)用 (FRA)


FRA組件為DCA提供駕駛員頭部的滾動(dòng)FRA(歐拉Y)和偏航FRA(歐拉Z)值。FRA是在Android Studio v3.5和API 16(Jelly Bean)上開發(fā)的,并部署在谷歌Pixel手機(jī)上,該手機(jī)必須放置在司機(jī)面前,攝像頭對(duì)準(zhǔn)他們。FRA 使用 CameraView v2.6.1來捕獲和處理視頻流幀,并使用 SDK ML Kit for Firebase通過計(jì)算機(jī)視覺 (CV) 技術(shù)估計(jì)頭部方向。這個(gè)SDK允許FRA通過處理一組與臉部橢圓(1個(gè)特征)、眼睛(2個(gè)特征)、眉毛(4個(gè)特征)、嘴唇(4個(gè)特征)和鼻子(2個(gè)特征)相關(guān)的面部特征,以歐拉角的方式提取給定視頻幀上的頭部方向。


C.數(shù)據(jù)收集應(yīng)用 (DCA)


DCA是主要的子系統(tǒng),旨在從AHRS和FRA組件收集數(shù)據(jù)。它是使用 API 19 (Kit Kat) 在 Android Studio v3.5 上開發(fā)的移動(dòng)應(yīng)用程序,并在 Google Nexus 平板電腦上執(zhí)行。由于k-NN需要訪問一組訓(xùn)練樣本來對(duì)輸入數(shù)據(jù)進(jìn)行實(shí)時(shí)分類,我們定義了兩種收集數(shù)據(jù)的模式: 訓(xùn)練模式和駕駛行為模式。因此,根據(jù)所選擇的模式,不同的DCA的組件被激活。


在訓(xùn)練模式下,DCA被用來創(chuàng)建k-NN算法所需的訓(xùn)練數(shù)據(jù)集,以推斷出駕駛過程中的VPoA。在這種模式下,研究的注釋者應(yīng)該打開DCA應(yīng)用程序的圖形用戶界面(GUI)來收集和標(biāo)記數(shù)據(jù)。首先,他/她將看到參與者注冊(cè)組件的圖形用戶界面,選擇以前注冊(cè)的參與者或注冊(cè)一個(gè)新的參與者(見圖4a)。然后,呈現(xiàn)訓(xùn)練組件的 GUI(見圖 4b),使注釋器能夠開始收集數(shù)據(jù)。


圖片

圖5 收集的圖元作為訓(xùn)練數(shù)據(jù)


注釋者應(yīng)首先從列表(1)中選擇一個(gè)VPoA,并要求參與者在特定的時(shí)間內(nèi)將頭部對(duì)準(zhǔn)它。注釋者點(diǎn)擊 "收集 "按鈕(2),從AHRS和FRA組件收集報(bào)告。因此,包含俯仰AHRS、滾動(dòng)AHRS、滾動(dòng)FRA、偏航FRA和注釋者指定的VPoA標(biāo)簽的數(shù)據(jù)元組被存儲(chǔ)起來(見圖5)。若要停止收集它們,注釋者應(yīng)再次點(diǎn)擊 "收集 "按鈕。上述過程需要對(duì)每個(gè)VPoA進(jìn)行重復(fù)。為了完成數(shù)據(jù)收集過程,注釋者應(yīng)保存(3)數(shù)據(jù)以生成訓(xùn)練數(shù)據(jù)文件。之后,呈現(xiàn)下一個(gè)屏幕(4),啟動(dòng)駕駛行為模式。


在駕駛行為模式下,DCA實(shí)時(shí)推斷駕駛員的VPoA(即在駕駛過程中)并收集駕駛環(huán)境數(shù)據(jù)。為了達(dá)到這個(gè)目的,注釋者應(yīng)該使用圖4c所示的圖形用戶界面。通過點(diǎn)擊 "收集 "按鈕(5),駕駛環(huán)境數(shù)據(jù)收集組件開始收集來自AHRS和FRA組件的報(bào)告,并發(fā)送給VPoA推理組件。它通過使用訓(xùn)練數(shù)據(jù)文件的 k-NN 算法將傳感器的報(bào)告分類為 VPoA。駕駛環(huán)境收集組件接收每個(gè)推斷出的VPoA,同時(shí)獲得駕駛環(huán)境數(shù)據(jù),即來自GPS的車輛速度、緯度和經(jīng)度。在駕駛過程中,注釋者可以通過在GUI中選擇相應(yīng)的圖標(biāo)來表明駕駛員是否進(jìn)行了以下動(dòng)作(見圖4c): 直線行駛(6),右轉(zhuǎn)(7)和左轉(zhuǎn)(8),換線(9,10),停在交通紅燈上(11),停車(12),與乘客(13)或不與乘客(14)進(jìn)行視覺互動(dòng)。我們還用一個(gè)羅技游戲手柄F310擴(kuò)展了這個(gè)圖形用戶界面,它通過USB On-The-Go連接到谷歌Nexus平板電腦上,可以選擇用來標(biāo)記收集的數(shù)據(jù)(見圖4d)。在上述DCA的組成部分中產(chǎn)生的數(shù)據(jù)按其各自的時(shí)間戳進(jìn)行索引,并以CSV格式存儲(chǔ)在駕駛行為數(shù)據(jù)文件中。注釋者通過再次按下 "收集 "按鈕來結(jié)束駕駛環(huán)節(jié)(5),然后(15)將駕駛行為數(shù)據(jù)文件上傳到電腦上,供系統(tǒng)的MATLAB應(yīng)用程序處理并準(zhǔn)備進(jìn)一步分析。


D.MATLAB 應(yīng)用


在駕駛過程中收集的數(shù)據(jù)(CSV格式的駕駛行為數(shù)據(jù))應(yīng)下載到電腦上,由以下用MATLAB R2019b的App Designer工具實(shí)現(xiàn)的應(yīng)用程序來處理。


1)預(yù)處理工具: 它將經(jīng)緯度坐標(biāo)映射為道路名稱和類型,并將速度從m/s轉(zhuǎn)換為km/h單位(數(shù)據(jù)整理)。 


圖片

圖6 過濾工具的用戶界面


該應(yīng)用程序更正了 VPoA 列以進(jìn)行數(shù)據(jù)清理,以解決推理期間的錯(cuò)誤分類。它使用時(shí)間戳檢查連續(xù)檢測(cè)到 VPoA 少于 0.1 秒的時(shí)間窗口。然后,它將VPoA改為以前被認(rèn)為是正確分類的VPoA。該工具的輸出是CSV格式的加工行為數(shù)據(jù)文件,研究人員可以按照接下來的規(guī)定進(jìn)行過濾。


2)過濾工具: 它提供了圖6所示的圖形用戶界面,使研究人員能夠選擇條件來過濾視覺行為數(shù)據(jù)。例如,如果選擇了一個(gè)特定的道路類型,該工具會(huì)顯示參與者對(duì)該條件下的每個(gè)VPoA的注視數(shù)量和固定時(shí)間。輸出的是CSV格式的過濾行為數(shù)據(jù)文件。


V.推理模型性能


在使用該系統(tǒng)對(duì)司機(jī)的視覺行為進(jìn)行自然研究之前,我們?cè)u(píng)估了該系統(tǒng)的推理模型的性能。為了實(shí)現(xiàn)這一目標(biāo),我們招募了4名志愿者,他們的年齡從22歲到25歲不等,平均有5.25年的駕駛經(jīng)驗(yàn)(SD=1.08),他們用自己的汽車參與了以下評(píng)估階段。


A.驗(yàn)證


這個(gè)階段的目的是用單獨(dú)的訓(xùn)練數(shù)據(jù)集(每個(gè)參與者一個(gè))來驗(yàn)證k-NN算法,這些數(shù)據(jù)集的收集不受車輛運(yùn)動(dòng)的影響。在訓(xùn)練模式下,使用系統(tǒng)收集每個(gè)參與者的訓(xùn)練數(shù)據(jù)集,采樣率設(shè)置為50赫茲,車輛停放。因此,我們能夠要求他們將頭部朝向每個(gè) VPoA 大約 5 秒,這使得每個(gè) VPoA 類收集 M=233.45 (SD=12.70) 個(gè)元組,如表 III 所示。對(duì)于在此階段進(jìn)行的所有實(shí)驗(yàn),我們使用了 10 倍交叉驗(yàn)證技術(shù)。我們使用完整的數(shù)據(jù)集(4,669個(gè)樣本)來尋找k的最佳值(k=3),這是用歐氏距離參數(shù)得到的,因?yàn)樗a(chǎn)生的錯(cuò)誤率最?。ㄒ姳硭模?;在之前的工作中也發(fā)現(xiàn)了類似的結(jié)果 。每個(gè)參與者的訓(xùn)練數(shù)據(jù)集的分類準(zhǔn)確率為100%,這意味著實(shí)例在同一類別內(nèi)非常相似,而在不同類別之間則有足夠的差異,從而被錯(cuò)誤分類(見圖7a)。


B.實(shí)時(shí)檢測(cè)


下一步是確定每個(gè)參與者生成的k-NN推理模型對(duì)來自傳感。


圖片

表3 數(shù)據(jù)集的規(guī)模和推斷的準(zhǔn)確性 (ACC)


圖片

表4 每個(gè)距離度量和K參數(shù)對(duì)的分類損失


圖片

圖7 混淆矩陣顯示了數(shù)據(jù)集測(cè)試和實(shí)時(shí)驗(yàn)證過程中正確和不正確分類的實(shí)例(a)和(b)


器的新的和未見過的樣本進(jìn)行分類的準(zhǔn)確性,這些樣本與我們的自然研究中收集的樣本相似。為了這個(gè)目的,參與者在駕駛行為模式下與系統(tǒng)進(jìn)行了駕駛訓(xùn)練,實(shí)時(shí)推斷VPoA。采樣頻率被設(shè)定為50赫茲。駕駛環(huán)節(jié)是在半控制的條件下進(jìn)行的,以收集可靠的地面真實(shí)數(shù)據(jù),同時(shí)保護(hù)參與者的安全。他們?cè)谝粋€(gè)空曠的停車場(chǎng)大約行駛了5分鐘,最高時(shí)速為20公里,由第一作者陪同進(jìn)行指導(dǎo)。參與者能夠自由地將汽車轉(zhuǎn)到左邊和右邊。我們要求他們將頭朝向每個(gè)VPoA的方向,最多重復(fù)2秒鐘,直到該環(huán)節(jié)結(jié)束。參與者通過羅技游戲手柄F310收集地面真實(shí)數(shù)據(jù),即按下游戲手柄上對(duì)應(yīng)VPoA的按鈕進(jìn)行查看,當(dāng)他們的注意力回到道路上時(shí)再按下按鈕(見圖4e)。因此,傳感器的樣本、推斷的VPoA和參與者輸入的標(biāo)簽被收集起來,以估計(jì)推斷的準(zhǔn)確性。在由48,218個(gè)樣本組成的數(shù)據(jù)集中,VPoA推理組件的準(zhǔn)確率達(dá)到了97.99%(見表三)。混淆矩陣(見圖7b)顯示,除道路外,在左邊和其他VPoA之間,以及在右邊和左邊、右邊和腿部之間,從未發(fā)生過錯(cuò)誤分類。這是因?yàn)檫@些區(qū)域之間有很大的物理隔離,所以分類器沒有將它們混淆。另一方面,大多數(shù)錯(cuò)誤分類發(fā)生在相鄰的區(qū)域之間,如道路與其他每一個(gè)VPoA以及帶有音頻/溫度的右邊。


VI.方法


我們進(jìn)行了一項(xiàng)自然研究,以證明該傳感系統(tǒng)在收集數(shù)據(jù)以識(shí)別駕駛視覺行為模式方面的功效。


研究表明,在正常的衰老過程中,所面臨的身體和認(rèn)知的退化會(huì)改變司機(jī)的視覺行為模式,并影響安全駕駛的能力。由于這個(gè)原因,人們對(duì)分析不同年齡段的人在不同駕駛環(huán)境下的視覺注意力差異很感興趣。例如,與年輕司機(jī)(M=26.5 歲)相比,老年司機(jī)(M=67.5 歲)在交叉路口的掃描范圍較小。另外,從事次要任務(wù)會(huì)增加青少年(16-20歲)、青年(21-24歲)和老年司機(jī)(74歲)的撞車風(fēng)險(xiǎn),而且對(duì)于所有年齡段的人來說,具有視覺-手動(dòng)需求的任務(wù)比認(rèn)知導(dǎo)向的任務(wù)更容易增加危險(xiǎn)。以前的研究工作促使我們對(duì)老年人和年輕人進(jìn)行研究。


A.目標(biāo)和成果措施


自然主義研究的目的是分析老年人和年輕人的視覺行為及其與駕駛環(huán)境的關(guān)聯(lián)。我們定義了兩個(gè)因變量來衡量視覺行為: 每個(gè) VPoA 的掃視次數(shù)及其注視時(shí)間; 以及與駕駛環(huán)境相關(guān)的四個(gè)自變量:道路類型(住宅或主干道)、車速、駕駛狀態(tài)(在直線車道上行駛或在紅燈處停車)以及前排座位上是否有乘客。


B.納入標(biāo)準(zhǔn)


參與者必須是活躍的司機(jī),即經(jīng)常開車并擁有有效的駕駛執(zhí)照,年齡在18-29歲之間的人被列入最年輕的成人組,60歲或以上的人被列入最高年齡組。


圖片

圖8 車輛駕駛艙內(nèi)的設(shè)備設(shè)置


圖片

圖9 參與者走過的路線:橙色為干線公路,藍(lán)色為居民區(qū)道路


他們都被要求有一輛車用于研究中使用。年輕的司機(jī)是來自我們大學(xué)系的學(xué)生志愿者。老年人通過在社交媒體上分發(fā)的小冊(cè)子和我們的聯(lián)系人進(jìn)行招募,并獲得7美元的汽油費(fèi)用補(bǔ)償。我校心理學(xué)系的倫理審查委員會(huì)批準(zhǔn)了這項(xiàng)研究。所有參與者都通過簽署紙質(zhì)表格和在參與者登記冊(cè)GUI上簽署口頭和書面同意(見圖4a)。


C.設(shè)備和駕駛場(chǎng)景


如圖8所示,參與者戴著一頂帽子,上面連接著AHRS系統(tǒng)(1)。將 Google Pixel 手機(jī)放在駕駛員面前進(jìn)行人臉識(shí)別 (2)。注釋者使用谷歌Nexus平板電腦來登記司機(jī)的行動(dòng)(3)。第二個(gè)平板電腦(4)也被安裝指向司機(jī),用于記錄有時(shí)間戳的視頻,以后可以在數(shù)據(jù)分析時(shí)查閱??梢赃x擇使用游戲手柄來記錄駕駛員的動(dòng)作(5)。駕駛路線包括住宅區(qū)(6公里)和干道(12公里)的道路(見圖9)。


D.程序和實(shí)驗(yàn)設(shè)計(jì)


在訓(xùn)練模式(車輛停放)下使用系統(tǒng)為每個(gè)參與者生成一個(gè)訓(xùn)練數(shù)據(jù)文件。接下來,注釋者(第一作者)解釋了駕駛場(chǎng)景,并要求被試者以他/她通常的駕駛方式,在遵守國(guó)家交通法規(guī)的情況下,駕駛兩次賽道。這次駕駛的數(shù)據(jù)是使用駕駛行為模式的系統(tǒng)收集的。采集AHRS和FRA傳感器的讀數(shù)時(shí),采樣率設(shè)定為50赫茲,而GPS的數(shù)據(jù)則以1赫茲采集。在第一圈,駕駛員被允許與坐在前排乘客座位上的注釋者保持閑聊。在第二圈中,注釋者在后座上,交流僅限于在忘記路線的情況下向駕駛員回憶。


圖片

表5 參與者的人口統(tǒng)計(jì)和駕駛特征


注釋者在GUI(如圖4c所示)中檢查司機(jī)的行動(dòng)。該環(huán)節(jié)持續(xù)了40至60分鐘,取決于一天中的時(shí)間和交通情況。


E.數(shù)據(jù)分析


用描述性統(tǒng)計(jì)計(jì)算器對(duì)收集的數(shù)據(jù)進(jìn)行分析。我們使用Tukey's fences來檢測(cè)離群值(k=1.5);通過t檢驗(yàn)(兩個(gè)獨(dú)立的平均值,p=.05,雙尾)來確定組間視覺行為(因變量)的差異; Wilcoxon Signed-Rank Test ( p=.05, two-tailed)分析同組受試者中自變量對(duì)因變量的影響,Pearson積矩相關(guān)系數(shù)評(píng)估變量之間的關(guān)系( p= .05)。確定相關(guān)水平的標(biāo)準(zhǔn)是:0 |r|< 0.3為弱;0.3 |r|< 0.7為中等,|r|> 0.7為強(qiáng)。報(bào)告結(jié)果時(shí)采用APA風(fēng)格。


VII.結(jié)果


A.參與者


參與者是15名21-77歲的年輕成年人和15名60-73歲的老年人,他們的平均駕駛經(jīng)驗(yàn)分別為5.2年和47.33年。表五列出了其他參與者的特征和研究期間收集的數(shù)據(jù)信息。


B.各年齡組視覺行為的對(duì)比


1)小組之間的注視次數(shù): 根據(jù)獨(dú)立的t檢驗(yàn),我們發(fā)現(xiàn)在所有的VPoAs中,年輕的成人組在眼神數(shù)量上有顯著的差異(見表六)。我們將這一結(jié)果歸因于年輕司機(jī)(18-25歲)往往比老年人更多參與次要任務(wù),包括使用手機(jī)和信息娛樂系統(tǒng)。


2)小組之間的注視持續(xù)時(shí)間: 由于老年人需要更多的時(shí)間來提取和處理信息,他們?cè)诘缆?、右邊、左邊和音頻/溫度區(qū)的凝視時(shí)間比年輕組更長(zhǎng)(見表七)。從獨(dú)立t檢驗(yàn)中,我們發(fā)現(xiàn)道路和右路的組間差異有顯著性; 以及左區(qū)和音頻/溫度區(qū)的非顯著性差異。從這些VPoA來看,左區(qū)不僅是觀看次數(shù)最多的區(qū)域,而且兩組的觀看時(shí)間都比較長(zhǎng)。另一方面,年輕的成年人在腿部的注視時(shí)間要比年長(zhǎng)的成年人長(zhǎng)。該研究的視頻顯示,看腿部主要與手機(jī)閱讀/發(fā)短信有關(guān)。因此,我們的結(jié)果表明,老年人避免與低頭有關(guān)的次要活動(dòng)(腿部和音頻/溫度)。根據(jù)其他研究,這些結(jié)果可能是由于這些VPoA需要更高的工作量或被認(rèn)為是不相關(guān)的。研究發(fā)現(xiàn),視線的固定時(shí)間取決于任務(wù)類型和任務(wù)的重要性,以及整體的工作負(fù)荷。例如,參考文獻(xiàn) [45] 的研究發(fā)現(xiàn),年長(zhǎng)的駕駛員在完成請(qǐng)求的瀏覽任務(wù)時(shí)分配了更多的視覺注意力,并盯著目標(biāo)信息超過 2 秒,而年輕的駕駛員實(shí)際上根本不再看一眼。


圖片

表6 基于對(duì)每個(gè)vpoa的注視次數(shù)的平均值和標(biāo)準(zhǔn)差的組間分析


圖片

表7 基于對(duì)每個(gè) VPOA 的瀏覽持續(xù)時(shí)間(秒)的平均值和標(biāo)準(zhǔn)偏差的組間分析


3)掃視次數(shù)與掃視持續(xù)時(shí)間的關(guān)系: 圖 10 的散點(diǎn)圖顯示了每個(gè)參與者對(duì) VPoA 的標(biāo)準(zhǔn)化平均掃視持續(xù)時(shí)間和掃視次數(shù)。Pearson 皮爾遜相關(guān)的結(jié)果表明,對(duì)于年輕的成年人(r (13)=-.93, p <.05)和年長(zhǎng)的成年人(r (13)=-.90, p <.05)來說,掃視的時(shí)間和掃視道路區(qū)域的次數(shù)之間存在著強(qiáng)烈的負(fù)相關(guān)(圖10a和b)。這些結(jié)果表明,觀察道路區(qū)域時(shí)間較長(zhǎng)的司機(jī)往往觀察它的頻率較低。


圖片

圖10 (a) 年輕人和 (b) 老年人的掃視次數(shù)和掃視持續(xù)時(shí)間與道路的關(guān)系。年輕人 (c) 和 (d) 老年人的掃視次數(shù)與 VPoA 其余部分的關(guān)系。


反之亦然,那些更經(jīng)常觀察這一領(lǐng)域的人則是以較短的目光來觀察。這種行為可以被解釋為一種補(bǔ)償機(jī)制,將足夠的視覺注意力分配給道路和其他VPoA。根據(jù)參考文獻(xiàn)[46],這種補(bǔ)償發(fā)生在執(zhí)行次要任務(wù)時(shí),因?yàn)槿绻蝿?wù)更復(fù)雜,視覺要求更高,那么針對(duì)該任務(wù)的注視次數(shù)就會(huì)增加。同時(shí),凝視的時(shí)間很短,經(jīng)常持續(xù)不到2秒。


圖10c)和d)描述了參與者在其余VPoA中的視覺行為,即眼睛離開道路。皮爾遜相關(guān)的結(jié)果表明,對(duì)于年輕的成年人(r (13)=.38, p <.05)和年長(zhǎng)的成年人(r (13)=.58, p <.05)來說,兩者的掃視持續(xù)時(shí)間和掃視次數(shù)之間存在中度關(guān)聯(lián)。老年人的散點(diǎn)圖(圖10d)似乎比年輕人的散點(diǎn)圖(圖10c)更分散,他們的視覺注意力管理形式類似。我們將這些結(jié)果歸因于老年人需要調(diào)整他們的視覺注意力管理以適應(yīng)他們的認(rèn)知和視覺技能,例如視敏度、信息處理能力和在兩個(gè)任務(wù)之間切換的能力。


C.視覺行為與駕駛環(huán)境的關(guān)系


圖11說明了速度是如何影響每組的視覺行為的。根據(jù)Pearson相關(guān)性,對(duì)于年輕的成年人(r (13)=-.73, p <.05)和年長(zhǎng)的成年人(r (13)=-.88, p <.05)來說,瞥一眼的數(shù)量和速度之間存在著強(qiáng)烈的負(fù)相關(guān)(見7.2 a和b)。對(duì)于年輕人(r (13)=.94, p <.05 和老年人 (r (13)=.97, p=.05),平均掃視持續(xù)時(shí)間和速度呈正相關(guān)(見圖 12 c 和 d) )。因此,無論哪個(gè)年齡段,隨著速度的增加,


圖片

圖11 (a) 年輕人和 (b) 老年人對(duì)道路 VPoA 的速度和掃視次數(shù)之間的相關(guān)性;(c) 年輕人和 (d) 老年人的速度和掃視持續(xù)時(shí)間.


圖片

圖12 在(a)車輛行駛中和(b)在紅燈前停車時(shí),有無乘客駕駛對(duì)掃視腿部的次數(shù)的影響;以及(c)在住宅和干道上駕駛對(duì)掃視的時(shí)間的影響


持續(xù)時(shí)間也會(huì)增加,但由于視覺注意力更集中在道路上,所以看的次數(shù)會(huì)減少。


用電話交談或與乘客交談已被確定為誘發(fā)分心的次要任務(wù)。盡管已經(jīng)研究了乘客如何影響年輕司機(jī)的手機(jī)使用,


圖片

表8 對(duì)道路VPOA的平均掃視時(shí)間(秒)

在不同道路類型上駕駛


但沒有研究量化司機(jī)對(duì)手機(jī)的視覺行為是如何受到乘客的影響的。因此,我們分析了在駕駛過程中,鄰座的乘客對(duì)腿部 的瀏覽次數(shù)的影響,這是一個(gè)與使用手機(jī)有關(guān)的VPoA。我們發(fā)現(xiàn)年輕組(M=17,SD=19.12)比老年組(M=0.46,SD= 0.74)更頻繁地看腿部(見圖12a),不管他們是否有乘客。根據(jù)獨(dú)立樣本t檢驗(yàn),有一個(gè)顯著的差異(t(28)=3.33, p <.05)。同樣地,在紅色交通燈下,老年人避免分心去看腿部。同時(shí),Wilcoxon Signed-Rank測(cè)試表明,年輕的成年人對(duì)它的注視次數(shù)明顯增加(Z=-1.88,p <.05)(見圖12b)。我們的視頻觀察證實(shí),他們主要使用手機(jī)發(fā)短信。


最后,我們的結(jié)果顯示,在居民區(qū)和干道上開車時(shí),老年人注視道路的時(shí)間在統(tǒng)計(jì)學(xué)上比年輕人長(zhǎng)(見表八和圖12c)。然而,所有參與者在干道上行駛時(shí)的凝視時(shí)間都比在住宅區(qū)時(shí)更長(zhǎng)。從Wilcoxon Signed-Rank測(cè)試中,我們發(fā)現(xiàn)老年人(Z=-3.40,p <.05)和年輕組(Z=-3.40 p <.05)在道路類型之間的瞥視時(shí)間有顯著差異。由于允許在干道上的駕駛速度比在住宅試驗(yàn)中更快,上述結(jié)果與圖11中的相關(guān)性有關(guān)。也就是說,隨著速度的增加,掃視道路的時(shí)間也延長(zhǎng)了。


VIII.結(jié)論


本文提出了一種新的 IMU 和相機(jī)傳感器的使用和組合,以在其三個(gè)自由度上檢測(cè)頭部方向。我們的分類結(jié)果優(yōu)于通過其他方法獲得的結(jié)果(見表二),我們將其歸因于傳感器的組合,以獲得可靠的頭部角度,包括那些代表觀察腿部和右VPoA所需的大型頭部運(yùn)動(dòng)。然而,我們需要進(jìn)行更多的實(shí)驗(yàn)來評(píng)估該模型推斷額外的VPoA的性能,并確定其在遮擋和各種光線條件下的效率。其他工作表明,當(dāng)匯總一些相鄰的視覺區(qū)域或不考慮特定的擋風(fēng)玻璃區(qū)域,如中心擋風(fēng)玻璃時(shí),準(zhǔn)確性會(huì)增強(qiáng)。此外,由于我們的方法使用了個(gè)性化的訓(xùn)練數(shù)據(jù)集,它取得了高準(zhǔn)確率的結(jié)果。


該傳感系統(tǒng)的主要優(yōu)勢(shì)在于,對(duì)不同的研究對(duì)象進(jìn)行個(gè)性化的推斷模型是切實(shí)可行的。這個(gè)優(yōu)勢(shì)是因?yàn)榕c基于深度學(xué)習(xí)的方法相比,使用 k-NN 是一種基于實(shí)例的學(xué)習(xí)類型,需要小的訓(xùn)練數(shù)據(jù)集。我們計(jì)劃用其他近鄰技術(shù)進(jìn)行實(shí)驗(yàn),如聚類k近鄰,以克服收集訓(xùn)練樣本分布稍有不均的缺陷,這可以提高準(zhǔn)確性。


本文的系統(tǒng)避免了對(duì)視頻數(shù)據(jù)進(jìn)行編碼以識(shí)別視覺行為,使研究人員能夠分析駕駛模式 。因此,該系統(tǒng)有助于進(jìn)行駕駛行為研究,因?yàn)樗占伺c視覺行為和駕駛環(huán)境有關(guān)的高級(jí)數(shù)據(jù)。它的功效通過所進(jìn)行的自然主義研究得到了證明,使我們能夠確定與以前使用傳統(tǒng)數(shù)據(jù)收集方法,即視頻觀察和編碼技術(shù)的研究中所報(bào)告的視覺行為模式相似。因此,我們的結(jié)論是,我們的方法能夠收集基本數(shù)據(jù),以確定年輕司機(jī)和老年人之間視覺行為模式的一致差異。對(duì)于未來的工作,我們計(jì)劃使用該系統(tǒng)來分析不同的外部因素(例如,改變車道、一天中的時(shí)段或不同的交通密度)將如何影響司機(jī)的視覺行為。進(jìn)行更多的研究將使我們能夠確定系統(tǒng)的設(shè)計(jì)特點(diǎn),使其更加健全。


參考文獻(xiàn):

[1] C. Siebe, “Distracted driving and risk of road crashes among novice and experienced drivers,” J. Emergency Med., vol. 46, no. 4, pp. 600–601, Apr. 2014. 

[2] F. Guo et al., “The effects of age on crash risk associated with driver distraction,” Int. J. Epidemiol., vol. 46, no. 1, pp. 258–265, Feb. 2017. 

[3] F. Zhang, S. Mehrotra, and S. C. Roberts, “Driving distracted with friends: Effect of passengers and driver distraction on young drivers’ behavior,” Accident Anal. Prevention, vol. 132, Nov. 2019, Art. no. 105246. 

[4] D. L. Strayer et al., “Visual and cognitive demands of CarPlay, Android auto, and five native infotainment systems,” Hum. Factors, J. Hum. Factors Ergonom. Soc., vol. 61, no. 8, pp. 1371–1386, Dec. 2019. 

[5] T. Louw and N. Merat, “Are you in the loop? Using gaze dispersion to understand driver visual attention during vehicle automation,” Transp. Res. C, Emerg. Technol., vol. 76, pp. 35–50, Mar. 2017. 

[6] J. Stutts et al., “Driver’s exposure to distractions in their natural driving environment,” Accident Anal. Prevention, vol. 37, no. 6, pp. 1093–1101, Nov. 2005. 

[7] D. G. Kidd and M. L. Buonarosa, “Distracting behaviors among teenagers and young, middle-aged, and older adult drivers when driving without and with warnings from an integrated vehicle safety system,” J. Saf. Res., vol. 61, pp. 177–185, Jun. 2017. 

[8] J. F. Antin, F. Guo, Y. Fang, T. A. Dingus, J. M. Hankey, and M. A. Perez, “The influence of functional health on seniors’ driving risk,” J. Transp. Health, vol. 6, pp. 237–244, Sep. 2017. 

[9] R. D. Ray, J. M. Ray, D. A. Eckerman, L. M. Milkosky, and L. J. Gillins, “Operations analysis of behavioral observation procedures: A taxonomy for modeling in an expert training system,” Behav. Res. Methods, vol. 43, no. 3, pp. 616–634, Sep. 2011. 

[10] R. E. Heyman, M. F. Lorber, J. M. Eddy, and T. V. West, “Behavioral observation and coding,” in Handbook of Research Methods in Social and Personality Psychology. Cambridge, U.K.: Cambridge Univ. Press, 2014, pp. 345–372. 

[11] E. Murphy-Chutorian, A. Doshi, and M. M. Trivedi, “Head pose estimation for driver assistance systems: A robust algorithm and experi-mental evaluation,” in Proc. IEEE Intell. Transp. Syst. Conf., Oct. 2007, pp. 709–714. 

[12] B. Metz and H. P. Krueger, “Measuring visual distraction in driving: The potential of head movement analysis,” IET Intell. Transp. Syst., vol. 4, no. 4, pp. 289–297, 2010. 

[13] J. A. Stern, T. B. Brown, L. Wang, and M. B. Russo, “Eye and head movements in the acquisition of visual information,” Psychologia, vol. 48, no. 2, pp. 135–145, 2005. 

[14] A. Kashevnik, I. Lashkov, A. Ponomarev, N. Teslya, and A. Gurtov, “Cloud-based driver monitoring system using a smartphone,” IEEE Sensors J., vol. 20, no. 12, pp. 6701–6715, Jun. 2020. 

[15] J.-L. Yin, B.-H. Chen, K.-H. R. Lai, and Y. Li, “Automatic dangerous driving intensity analysis for advanced driver assistance systems from multimodal driving signals,” IEEE Sensors J., vol. 18, no. 12, pp. 4785–4794, Jun. 2018. 

[16] M. Atiquzzaman, Y. Qi, and R. Fries, “Real-time detection of drivers’ texting and eating behavior based on vehicle dynamics,” Transp. Res. F, Traffic Psychol. Behav., vol. 58, pp. 594–604, Oct. 2018. 

[17] L. Li, Z. Xie, X. Xu, Y. Liang, and W. Horrey, “Recognition of manual driving distraction through deep-learning and wearable sensing,” in Proc. 10th Int. Driving Symp. Hum. Factors Driver Assessment, Training Vehicle Design, Driving Assessment, vol. 10, Jun. 2019, pp. 22–28. 

[18] L. Li, B. Zhong, C. Hutmacher, Y. Liang, W. J. Horrey, and X. Xu, “Detection of driver manual distraction via image-based hand and ear recognition,” Accident Anal. Prevention, vol. 137, Mar. 2020, Art. no. 105432. 

[19] A. Tawari, S. Martin, and M. M. Trivedi, “Continuous head movement estimator for driver assistance: Issues, algorithms, and on-road evaluations,” IEEE Trans. Intell. Transp. Syst., vol. 15, no. 2, pp. 818–830, Apr. 2014. [20] F. Vicente, Z. Huang, X. Xiong, F. De la Torre, W. Zhang, and D. Levi, “Driver gaze tracking and eyes off the road detection system,” IEEE Trans. Intell. Transp. Syst., vol. 16, no. 4, pp. 2014–2027, Aug. 2015. 

[21] A. Tawari and M. M. Trivedi, “Robust and continuous estimation of driver gaze zone by dynamic analysis of multiple face videos,” in Proc. IEEE Intell. Vehicles Symp., Jun. 2014, pp. 344–349. 

[22] I.-H. Choi, S. K. Hong, and Y.-G. Kim, “Real-time categorization of driver’s gaze zone using the deep learning techniques,” in Proc. Int. Conf. Big Data Smart Comput. (BigComp), Jan. 2016, pp. 143–148. 

[23] S. Dari, N. Kadrileev, and E. Hullermeier, “A neural network-based driver gaze classification system with vehicle signals,” in Proc. Int. Joint Conf. Neural Netw. (IJCNN), Jul. 2020, pp. 1–7. 

[24] I. R. Tayibnapis, M.-K. Choi, and S. Kwon, “Driver’s gaze zone estimation by transfer learning,” in Proc. IEEE Int. Conf. Consum. Electron. (ICCE), Jan. 2018, pp. 1–5.

[25] Y. Wang, T. Zhao, X. Ding, J. Bian, and X. Fu, “Head pose-free eye gaze prediction for driver attention study,” in Proc. IEEE Int. Conf. Big Data Smart Comput. (BigComp), Feb. 2017, pp. 42–46. 

[26] M. Kok, J. D. Hol, and T. B. Sch?n, “Using inertial sensors for position and orientation estimation,” in Foundations and Trends in Signal Processing, vol. 11, nos. 1–2. Boston, MA, USA: Now, Nov. 2017, pp. 1–153. 

[27] A. Fernández, R. Usamentiaga, J. Carús, and R. Casado, “Driver distraction using visual-based sensors and algorithms,” Sensors, vol. 16, no. 11, p. 1805, Oct. 2016. 

[28] Face Detection | Firebase. Accessed: Aug. 17, 2020. [Online]. Available:https://firebase.google.com/docs/ml-kit/detect-faces 

[29] Amazon Web Services (AWS)—Cloud Computing Services. Accessed: Dec. 22, 2020. [Online]. Available: https://aws.amazon.com/ rekognition 

[30] N. Bhatia and Vandana, “Survey of nearest neighbor techniques,” Int. J. Comput. Sci. Inf. Secur., vol. 8, no. 2, p. 11, Jul. 2010. [Online]. Available: https://arxiv.org/pdf/1007.0085.pdf 

[31] J. M. Ramírez, M. D. Rodríguez, á. G. Andrade, L. A. Castro, J. Beltrán, and J. S. Armenta, “Inferring drivers’ visual focus attention through head-mounted inertial sensors,” IEEE Access, vol. 7, pp. 185422–185432, 2019. 

[32] Home—Yost Labs. Accessed: Aug. 17, 2020. [Online]. Available: https: //yostlabs.com/ 

[33] GitHub—Natario1/CameraView: A Well documented, HighLevel Android Interface That Makes Capturing Pictures and Videos Easy, Addressing All of the Common Issues and Needs. Accessed: Sep. 15, 2020. [Online]. Available: https://github.com/ natario1/CameraView 

[34] Android KitKat | Android Developers. Accessed: Sep. 15, 2020. [Online]. Available: https://developer.android.com/about/versions/kitkat 

[35] Fused Location Provider API | Google Developers. Accessed: Sep. 15, 2020. [Online]. Available: https://developers. google.com/location-context/fused-location-provider/ 

[36] MATLAB App Designer—MATLAB. Accessed: Sep. 15, 2020. [Online]. Available: https://www.mathworks.com/products/matlab/appdesigner.html 

[37] J. S. Armenta, M. D. Rodríguez, and A. G. Andrade, “A sensing architecture based on head-worn inertial sensors to study drivers’ visual patterns,” Proceedings, vol. 31, no. 1, p. 34, Nov. 2019. 

[38] S. Classen et al., “Item development and validity testing for a self- and proxy report: The safe driving behavior measure,” Amer. J. Occupational Therapy, vol. 64, no. 2, pp. 296–305, Mar. 2010. 

[39] S.-W. Park et al., “Association between unsafe driving performance and cognitive-perceptual dysfunction in older drivers,” PM R, vol. 3, no. 3, pp. 198–203, Mar. 2011. 

[40] M. Rizzo, “Impaired driving from medical conditions: A 70-year-old man trying to decide if he should continue driving,” Jama, vol. 305, pp. 1018–1026, Mar. 2011. 

[41] S. W. Savage, L. Zhang, G. Swan, and A. R. Bowers, “The effects of age on the contributions of head and eye movements to scanning behavior at intersections,” Transp. Res. F, Traffic Psychol. Behav., vol. 73, pp. 128–142, Aug. 2020. 

[42] Quick Statistics Calculators. Accessed: Jul. 16, 2019. [Online]. Available: https://www.socscistatistics.com/tests/ 

[43] K. L. Young and M. G. Lenné, “Driver engagement in distracting activities and the strategies used to minimise risk,” Saf. Sci., vol. 48, no. 3, pp. 326–332, Mar. 2010. 

[44] Q. C. Sun, J. C. Xia, J. He, J. Foster, T. Falkmer, and H. Lee, “Towards unpacking older drivers’ visual-motor coordination: A gaze-based integrated driving assessment,” Accident Anal. Prevention, vol. 113, pp. 85–96, Apr. 2018. 

[45] A.-S. Wikman and H. Summala, “Aging and time-sharing in highway driving,” Optometry Vis. Sci., vol. 82, no. 8, pp. 716–723, Aug. 2005. 

[46] B. Metz, N. Sch?mig, and H.-P. Krüger, “Attention during visual secondary tasks in driving: Adaptation to the demands of the driving task,” Transp. Res. F, Traffic Psychol. Behav., vol. 14, no. 5, pp. 369–380, Sep. 2011. 

[47] N. Merat, V. Anttila, and J. Luoma, “Comparing the driving performance of average and older drivers: The effect of surrogate in-vehicle infor-mation systems,” Transp. Res. F, Traffic Psychol. Behav., vol. 8, no. 2, pp. 147–166, Mar. 2005.

分享到:
 
反對(duì) 0 舉報(bào) 0 收藏 0 評(píng)論 0
滬ICP備11026917號(hào)-25