專利名稱:基于單目視覺的駕駛員疲勞檢測(cè)方法
技術(shù)領(lǐng)域:
本發(fā)明屬于汽車主動(dòng)安全駕駛技術(shù),特別是一種基于單目視覺的駕駛員疲勞檢測(cè) 方法。
背景技術(shù):
駕駛員疲勞是造成惡性交通事故的重要原因之一,嚴(yán)重危害交通安全。駕駛疲勞 檢測(cè)是對(duì)駕駛員在行車中出現(xiàn)的疲勞現(xiàn)象進(jìn)行實(shí)時(shí)檢測(cè)并施以適當(dāng)警告,防止出現(xiàn)事故的 過程。目前,主流的駕駛員疲勞檢測(cè)技術(shù)分為三類分別是基于駕駛員生理參數(shù)的疲勞檢 測(cè)、基于車輛行駛狀態(tài)的疲勞檢測(cè)和基于駕駛員行為特征的疲勞檢測(cè)?;隈{駛員生理參 數(shù)的疲勞檢測(cè),如腦電波(EEG)、眼電波(EOG)和心律等,其中EEG被稱為測(cè)量疲勞的“金標(biāo) 準(zhǔn)”。該類方法利用在清醒和疲勞時(shí)人體生理信號(hào)的不同進(jìn)行檢測(cè),由于能直接且準(zhǔn)確的反 映疲勞的發(fā)生,此類方法準(zhǔn)確度較高,但在檢測(cè)生理信號(hào)特征時(shí)都必須使用接觸人體的電 極,常對(duì)司機(jī)造成干擾和負(fù)擔(dān)?;谲囕v行駛狀態(tài)的疲勞檢測(cè),如速度、側(cè)加速、側(cè)位移等。 通過檢測(cè)車道偏離量、行道線跟蹤,駕車側(cè)位移的功率譜密度等指標(biāo)來(lái)檢測(cè)駕駛疲勞?;?駕駛員行為特征的疲勞檢測(cè),該類方法是無(wú)接觸式的檢測(cè)方法。行為特征主要包括眼睛狀 態(tài)、點(diǎn)頭動(dòng)作等。因?yàn)榛隈{駛員行為特征的方法較易實(shí)現(xiàn),并且人眼既可以提供較豐富的 信息用于疲勞檢測(cè)的判斷,又可以做到既客觀又無(wú)干擾,而且視覺傳感器的價(jià)格相對(duì)便宜, 且可以獲得更直觀、更豐富的信息,無(wú)須接觸駕駛員,所以基于行為識(shí)別、特別是基于眼睛 狀態(tài)識(shí)別的駕駛疲勞檢測(cè)是公認(rèn)的最有前景的一種技術(shù)。實(shí)用新型專利200620132320. 3中提到的“疲勞駕駛提醒裝置”利用紅外線傳感器 時(shí)刻監(jiān)視駕駛員頭部是否保持在正常駕駛位置,如果發(fā)生離開或偏移的事件,則及時(shí)啟動(dòng) 報(bào)警。但該方法存在的問題是疲勞時(shí)駕駛員的頭部位置可能并不發(fā)生明顯的變化。
發(fā)明內(nèi)容
本發(fā)明的目的在于提供一種基于單目視覺的駕駛員疲勞檢測(cè)方法。實(shí)現(xiàn)本發(fā)明目的的技術(shù)解決方案為一種基于單目視覺的駕駛員疲勞檢測(cè)方法, 步驟為步驟1 對(duì)每幀圖像進(jìn)行人臉檢測(cè),如果檢測(cè)到人臉,就記錄下當(dāng)前人臉區(qū)域,如 果檢測(cè)不到人臉,就使用最新記錄的人臉區(qū)域初始化人臉跟蹤器,并用它進(jìn)行人臉跟蹤,若 當(dāng)前幀沒有檢測(cè)到人臉,并且最近N幀內(nèi)也沒有檢測(cè)到人臉的記錄,則執(zhí)行步驟4 ;步驟2 在人臉區(qū)域中利用形態(tài)學(xué)濾波方法檢測(cè)暗區(qū)域并結(jié)合幾何位置信息尋找 瞳孔區(qū)域,實(shí)現(xiàn)雙眼的檢測(cè)與定位;若檢測(cè)不到可靠的雙眼,執(zhí)行步驟4 ;步驟3 從眼睛區(qū)域中提取瞳孔面積比率特征、最大行平均水平垂直梯度比率特 征、人眼區(qū)域均方差特征和膚色像素比率特征區(qū)分眼睛的睜閉狀態(tài),實(shí)現(xiàn)人眼狀態(tài)識(shí)別;步驟4:進(jìn)行連續(xù)狀態(tài)判斷以獲得駕駛員疲勞狀態(tài)檢測(cè)結(jié)果,若當(dāng)前幀沒有檢測(cè) 到人臉,并且在最近N幀內(nèi)也沒有檢測(cè)到人臉的記錄,則本幀判為異常,否則判為正常;若檢測(cè)到了人臉,但檢測(cè)不到可靠的雙眼,則本幀判為異常,否則判為正常;若檢測(cè)到人臉,并 且也檢測(cè)到了可靠的雙眼,如果雙眼是閉合狀態(tài),則本幀判為異常,否則判為正常;如果連 續(xù)Tl幀出現(xiàn)異常,或1秒內(nèi)兩異常狀態(tài)之間的平均間隔小于閾值T2,則認(rèn)為駕駛員有疲勞 傾向。本發(fā)明與現(xiàn)有技術(shù)相比,其顯著優(yōu)點(diǎn)(1)直接對(duì)單幅圖像進(jìn)行處理,只要人臉包 含于圖像中,均能進(jìn)行檢測(cè),不受攝像頭抖動(dòng)(車輛顛簸)的影響;( 時(shí)間復(fù)雜度低,能實(shí) 時(shí)處理;C3)直接利用臉部檢測(cè)與跟蹤和眼睛狀態(tài)識(shí)別等生物特征識(shí)別方法,避免了接觸 式檢測(cè),實(shí)用性強(qiáng);(4)使用單目視覺,系統(tǒng)配置簡(jiǎn)單、硬件成本低、易于大規(guī)模推廣。下面結(jié)合附圖對(duì)本發(fā)明作進(jìn)一步詳細(xì)描述。
圖1是本發(fā)明基于單目視覺的駕駛員疲勞檢測(cè)方法的整體流程圖。圖2是本發(fā)明基于單目視覺的駕駛員疲勞檢測(cè)方法的人臉檢測(cè)跟蹤流程圖。圖3是本發(fā)明基于單目視覺的駕駛員疲勞檢測(cè)方法的人眼檢測(cè)與定位流程圖。圖4是本發(fā)明基于單目視覺的駕駛員疲勞檢測(cè)方法的人眼檢測(cè)與定位過程示意 圖。圖5是本發(fā)明基于單目視覺的駕駛員疲勞檢測(cè)方法的人眼狀態(tài)識(shí)別流程圖。圖6是本發(fā)明基于單目視覺的駕駛員疲勞檢測(cè)方法的各狀態(tài)識(shí)別特征鑒別性能 和膚色像素分布示意圖。圖7是本發(fā)明基于單目視覺的駕駛員疲勞檢測(cè)方法的駕駛員疲勞狀態(tài)檢測(cè)結(jié)果。
具體實(shí)施例方式結(jié)合圖1,本發(fā)明基于單目視覺的駕駛員疲勞檢測(cè)方法,步驟如下步驟1 對(duì)每幀圖像進(jìn)行人臉檢測(cè),如果檢測(cè)到人臉,就記錄下當(dāng)前人臉區(qū)域,如 果檢測(cè)不到人臉,就使用最新記錄的人臉區(qū)域初始化人臉跟蹤器,并用它進(jìn)行人臉跟蹤,若 當(dāng)前幀沒有檢測(cè)到人臉,并且最近N幀內(nèi)也沒有檢測(cè)到人臉的記錄,則執(zhí)行步驟4 ;步驟2 在人臉區(qū)域中利用形態(tài)學(xué)濾波方法檢測(cè)暗區(qū)域并結(jié)合幾何位置信息尋找 瞳孔區(qū)域,實(shí)現(xiàn)雙眼的檢測(cè)與定位;若檢測(cè)不到可靠的雙眼,執(zhí)行步驟4 ;步驟3 從眼睛區(qū)域中提取瞳孔面積比率特征、最大行平均水平垂直梯度比率特 征、人眼區(qū)域均方差特征和膚色像素比率特征區(qū)分眼睛的睜閉狀態(tài),實(shí)現(xiàn)人眼狀態(tài)識(shí)別;步驟4 進(jìn)行連續(xù)狀態(tài)判斷以獲得駕駛員疲勞狀態(tài)檢測(cè)結(jié)果。若當(dāng)前幀沒有檢測(cè) 到人臉,并且在最近N幀內(nèi)也沒有檢測(cè)到人臉的記錄,則本幀判為異常,否則判為正常;若 檢測(cè)到了人臉,但檢測(cè)不到可靠的雙眼,則本幀判為異常,否則判為正常;若檢測(cè)到人臉,并 且也檢測(cè)到了可靠的雙眼,如果雙眼是閉合狀態(tài),則本幀判為異常,否則判為正常;如果連 續(xù)Tl幀出現(xiàn)異常,或1秒內(nèi)兩異常狀態(tài)之間的平均間隔小于閾值T2,則認(rèn)為駕駛員有疲勞 傾向。具體實(shí)施過程如下。第一步人臉檢測(cè)與跟蹤。對(duì)采集到的原始圖像,本發(fā)明將Adaboost人臉檢測(cè)算法[Viola P.,JonesM. J. Robust Real-time Object Detection, Cambridge Research Laboratory, Technical Report Series. CRL2001/01.]和 MeanShift 跟蹤算法[Comaniciu D, Ramesh V, Meer P. Real-Time Tracking of Non-Rigid Objects Using Mean Shift. IEEE Conference on Computer Vision and Pattern Recognition, 2000 2:142-149]兩者結(jié)合起來(lái),采用連續(xù) 檢測(cè),短時(shí)跟蹤策略,即對(duì)采集到的每一幀原圖像,采用Adaboost人臉檢測(cè)方法進(jìn)行人臉 檢測(cè),當(dāng)Adaboost檢測(cè)到人臉時(shí),對(duì)所有得到的人臉候選區(qū)域,通過區(qū)域大小、膚色信息限 制條件選出最可能的一個(gè)候選區(qū)域作為真實(shí)人臉區(qū)域,將該人臉位置輸出,并記錄下該區(qū) 域的位置和當(dāng)前幀圖像;如果檢測(cè)不到或者沒有一個(gè)滿足限制條件的候選區(qū)域,就用最近 一次記錄的圖像和人臉位置對(duì)Mean-Shift進(jìn)行初始化,并使用Mear^hift跟蹤算法在當(dāng) 前圖像上匹配搜索人臉區(qū)域,如果跟蹤到的區(qū)域與初始化時(shí)的人臉區(qū)域的相似度大于T, 則以跟蹤到的人臉區(qū)域作為人臉檢測(cè)結(jié)果。如果后續(xù)圖像中Adaboost檢測(cè)器仍然檢測(cè)不 到,則一直進(jìn)行Mear^hift跟蹤。這樣就使得在人臉突然發(fā)生劇烈擺動(dòng)時(shí)(車劇烈顛簸), 不至于丟失人臉,在人臉側(cè)轉(zhuǎn)或被部分遮擋、Adaboost無(wú)法檢測(cè)人臉時(shí)也能獲得可靠的人 臉區(qū)域。Adaboost檢測(cè)器檢測(cè)人臉準(zhǔn)確性高,使用其結(jié)果初始化Mear^hift算法,能提高 MeanShift的跟蹤精度,將長(zhǎng)時(shí)跟蹤分成一段段短時(shí)跟蹤,避免了一次初始化后長(zhǎng)時(shí)跟蹤時(shí) MeanShift跟蹤算法的尺度預(yù)測(cè)問題。在Mear^hift算法的實(shí)現(xiàn)中,本發(fā)明采用了 YCgCr 空間[de Dios, J. J.,Garcia. N. Face detection based on a new color space YCgCr, International Conference on Image Processing,2003,3(2) :111-909-12]中 Cg禾口Cr通 道的二維聯(lián)合直方圖來(lái)建立顏色直方圖,膚色像素在Cg-Cr空間中的分布較緊湊。此外,為 了提高處理速度,Adaboost算法的實(shí)現(xiàn)上采用了加速手段,Adaboost人臉檢測(cè)是在全圖上 搜索得到,且分為不同尺度進(jìn)行搜索,雖然速度較快,但仍可進(jìn)一步加速,實(shí)現(xiàn)時(shí),我們將原 圖像首先降采樣為原圖像大小的1/4,并在降采樣后的圖像上進(jìn)行Adaboost檢測(cè),檢測(cè)到 人臉區(qū)域后再投影到原圖像坐標(biāo)上。這一加速對(duì)人臉檢測(cè)率幾乎沒有影響,在定位的精度 上與不降采樣結(jié)果相差很小,但速度比不降采樣時(shí)提高3至4倍。第二步人眼檢測(cè)與定位。本發(fā)明利用形態(tài)學(xué)濾波尋找暗眼球區(qū)域進(jìn)行人眼定位。對(duì)人臉區(qū)域圖像(如圖 4(a))使用尺寸為5X5的方形結(jié)構(gòu)元素進(jìn)行灰度形態(tài)學(xué)閉運(yùn)算/' = (/十6)Θ ,得到濾波 圖像f',如圖4(b)其中 和Θ分別是形態(tài)學(xué)膨脹和腐蝕運(yùn)算;將濾波圖像與原圖像相 減fsub = f' _f得到突出臉部所有暗區(qū)域的差圖像fsub,如圖4(c),原圖像中越暗的區(qū)域在 差圖像中越亮;采用基于差圖像直方圖選取分割閾值Tf,并使用該閾值對(duì)差圖像Tsub進(jìn)行 分割,得到二值化圖像,如圖4(d);在分割后的圖像中,除眼部暗區(qū)域外,人臉部分輪廓,眉 毛、鼻、嘴也被分割出來(lái),剔除這些干擾的方法是通過連通域分析進(jìn)一步去除長(zhǎng)寬比不合 適的區(qū)域,以及離圖像底邊過近的區(qū)域,因?yàn)槿搜鄄豢赡艹霈F(xiàn)在這一區(qū)域。圖4(e)是經(jīng)連 通域分析后的結(jié)果;對(duì)于剩下的每一個(gè)候選區(qū)域,計(jì)算各自的區(qū)域中心,利用眼睛對(duì)的幾何 關(guān)系從這些候選區(qū)域中心中挑選出滿足以下條件的眼睛中心對(duì)a.兩中心對(duì)之間的距離必須在人臉寬度的0. 25 0. 6倍范圍內(nèi);b.兩中心對(duì)之間的連線與水平方向的夾角不超過25度;最后只剩下眉毛和眼睛區(qū)域,根據(jù)眼睛在眉毛之下的約束,選擇兩眼區(qū)域中心的 縱坐標(biāo)之和最大(離圖像底邊最近)的一對(duì)作為眼睛區(qū)域。圖4(f)是篩選后的結(jié)果。最后從左右眼睛中心處截取M*N的原圖像區(qū)域作為左右眼睛區(qū)域用于后續(xù)眼睛狀態(tài)的識(shí)別。第三步眼睛狀態(tài)識(shí)別。人眼分為睜開和閉合兩種狀態(tài),對(duì)于人眼狀態(tài)的識(shí)別,本發(fā)明設(shè)計(jì)了瞳孔面積比 率、最大行平均水平垂直梯度比率、人眼區(qū)域方差和膚色像素比率四種判據(jù)進(jìn)行聯(lián)合識(shí)別。a.提取瞳孔面積比率特征眼睛睜開時(shí),瞳孔是裸露的,眼睛閉合時(shí)則看不到瞳 孔,基于照明燈光源會(huì)在人臉瞳孔中心產(chǎn)生高亮區(qū)域這一認(rèn)識(shí),對(duì)人眼區(qū)域圖像同樣使用 形態(tài)學(xué)濾波方法進(jìn)行亮區(qū)域檢測(cè),這里尋找小的高亮區(qū)域,且使用較小的結(jié)構(gòu)元素3X 3,其 形態(tài)學(xué)濾波與差圖像計(jì)算利用公式
權(quán)利要求
1.一種基于單目視覺的駕駛員疲勞檢測(cè)方法,其特征在于步驟為步驟1 對(duì)每幀圖像進(jìn)行人臉檢測(cè),如果檢測(cè)到人臉,就記錄下當(dāng)前人臉區(qū)域,如果檢 測(cè)不到人臉,就使用最新記錄的人臉區(qū)域初始化人臉跟蹤器,并用它進(jìn)行人臉跟蹤,若當(dāng)前 幀沒有檢測(cè)到人臉,并且最近N幀內(nèi)也沒有檢測(cè)到人臉的記錄,則執(zhí)行步驟4 ;步驟2 在人臉區(qū)域中利用形態(tài)學(xué)濾波方法檢測(cè)暗區(qū)域并結(jié)合幾何位置信息尋找瞳孔 區(qū)域,實(shí)現(xiàn)雙眼的檢測(cè)與定位;若檢測(cè)不到可靠的雙眼,執(zhí)行步驟4 ;步驟3 從眼睛區(qū)域中提取瞳孔面積比率特征、最大行平均水平垂直梯度比率特征、人 眼區(qū)域均方差特征和膚色像素比率特征區(qū)分眼睛的睜閉狀態(tài),實(shí)現(xiàn)人眼狀態(tài)識(shí)別;步驟4:進(jìn)行連續(xù)狀態(tài)判斷以獲得駕駛員疲勞狀態(tài)檢測(cè)結(jié)果,若當(dāng)前幀沒有檢測(cè)到人 臉,并且在最近N幀內(nèi)也沒有檢測(cè)到人臉的記錄,則本幀判為異常,否則判為正常;若檢測(cè) 到了人臉,但檢測(cè)不到可靠的雙眼,則本幀判為異常,否則判為正常;若檢測(cè)到人臉,并且也 檢測(cè)到了可靠的雙眼,如果雙眼是閉合狀態(tài),則本幀判為異常,否則判為正常;如果連續(xù)Tl 幀出現(xiàn)異常,或1秒內(nèi)兩異常狀態(tài)之間的平均間隔小于閾值T2,則認(rèn)為駕駛員有疲勞傾向。
2.根據(jù)權(quán)利要求1所述的基于單目視覺的駕駛員疲勞檢測(cè)方法,其特征在于在步驟1 中,即在人臉檢測(cè)與人臉跟蹤中采用的步驟如下步驟11 對(duì)采集到的原始圖像,采用Adaboost人臉檢測(cè)方法進(jìn)行人臉檢測(cè);對(duì)于所有 得到的人臉候選區(qū)域,通過區(qū)域大小、膚色信息限制條件選出最可能的一個(gè)候選區(qū)域作為 真實(shí)人臉區(qū)域,將該人臉位置輸出,并記錄下該區(qū)域的位置和當(dāng)前幀圖像;如果沒有一個(gè)滿 足限制條件的候選區(qū)域,則轉(zhuǎn)步驟14 ;步驟12 使用最近一次記錄下的人臉區(qū)域位置和相應(yīng)的圖像對(duì)Mean-Shift跟蹤算法 進(jìn)行初始化;如果一次也沒有任何使用Adaboost檢測(cè)過可靠的人臉區(qū)域記錄,則轉(zhuǎn)步驟 14;步驟13 利用Mean-Shift跟蹤算法在當(dāng)前幀中跟蹤人臉,如果跟蹤到的區(qū)域與初始化 時(shí)的人臉區(qū)域的相似度大于T,則輸出跟蹤到的人臉區(qū)域位置;否則繼續(xù)執(zhí)行; 步驟14 判定當(dāng)前圖像中不含人臉。
3.根據(jù)權(quán)利要求1所述的基于單目視覺的駕駛員疲勞檢測(cè)方法,其特征在于在步驟2 中,即在檢測(cè)與定位眼睛對(duì)中采用的步驟如下步驟21 對(duì)人臉區(qū)域圖像f使用尺寸為5X5的方形結(jié)構(gòu)元素進(jìn)行灰度形態(tài)學(xué)閉運(yùn)算, 得到濾波圖像f';步驟22 將濾波圖像f'與原圖像f相減得到突出臉部所有暗區(qū)域的差圖像fsub,原圖 像中越暗的區(qū)域在差圖像中越亮;步驟23 基于差圖像直方圖選取閾值Tf對(duì)差圖像fsub采用進(jìn)行分割; 步驟M 干擾去除,在分割后的圖像中,除眼部暗區(qū)域外,人臉部分輪廓,眉毛、鼻、嘴 也被分割出來(lái),剔除這些干擾的方法是通過連通域分析進(jìn)一步去除長(zhǎng)寬比不合適的區(qū)域, 以及離圖像底邊過近的區(qū)域,因?yàn)槿搜鄄豢赡艹霈F(xiàn)在這一區(qū)域;步驟25:對(duì)于剩下的每一個(gè)候選區(qū)域,計(jì)算各自的區(qū)域中心,利用眼睛對(duì)的幾何關(guān)系 從這些候選區(qū)域中心中挑選出滿足以下條件的眼睛中心對(duì)(1)兩中心對(duì)之間的距離必須在人臉寬度的0.25 0. 6倍范圍內(nèi);(2)兩中心對(duì)之間的連線與水平方向的夾角不超過25度;最后只剩下眉毛和眼睛區(qū)域,根據(jù)眼睛在眉毛之下的約束,選擇兩眼區(qū)域中心的縱坐 標(biāo)之和最大的一對(duì)作為眼睛區(qū)域。
4.根據(jù)權(quán)利要求1所述的基于單目視覺的駕駛員疲勞檢測(cè)方法,其特征在于在步驟3 中,即在人眼區(qū)域中提取相關(guān)特征進(jìn)行人眼睜閉狀態(tài)識(shí)別中采用的步驟如下步驟31 提取瞳孔面積比率特征,眼睛睜開時(shí),瞳孔是裸露的,眼睛閉合時(shí)則看不到瞳 孔,由于照明燈光源會(huì)在人臉瞳孔中心產(chǎn)生高亮區(qū)域,根據(jù)這一知識(shí),對(duì)人眼區(qū)域圖像同樣 使用形態(tài)學(xué)濾波方法進(jìn)行亮區(qū)域檢測(cè),只是這里尋找小的高亮區(qū)域,且使用較小的結(jié)構(gòu)元 素 3X3 ;步驟32 提取最大行平均水平垂直梯度比率特征,由于人眼閉合后,眼斂緊閉成一條 水平窄帶,這時(shí)人眼區(qū)域水平梯度較小,垂直梯度較大,而睜開時(shí),不形成這種窄帶,人眼區(qū) 域水平和垂直梯度均較大,因此采用水平梯度和垂直梯度比作為判據(jù);步驟33 提取人眼區(qū)域均方差特征,當(dāng)人眼睜開時(shí)區(qū)域均方差一般較大,而當(dāng)人眼閉 合時(shí)均方差一般較小;步驟34:提取膚色像素比率特征,人眼睜開時(shí),人眼區(qū)域內(nèi)部被瞳孔、虹膜和晶狀體占 據(jù),膚色像素極少,而人臉閉合后,上下眼皮結(jié)合,膚色像素較多;步驟35 對(duì)左右眼區(qū)域分別使用四個(gè)判據(jù)進(jìn)行判斷,每個(gè)判據(jù)如果判為睜開狀態(tài)則輸 出為1,否則輸出為0 ;四個(gè)特征的分類閾值分別設(shè)為0. 1,0. 75,25和0. 95,最后聯(lián)合這個(gè) 八個(gè)判斷結(jié)果投票表決眼睛狀態(tài);如果其和大于4則為睜開狀態(tài),否則為閉合狀態(tài)。
全文摘要
本發(fā)明公開了一種基于單目視覺的駕駛員疲勞檢測(cè)方法。該方法通過人臉檢測(cè)與跟蹤、人眼檢測(cè)與定位以及眼睛狀態(tài)識(shí)別對(duì)駕駛員工作狀態(tài)進(jìn)行監(jiān)督以達(dá)到提醒駕駛員安全駕駛的目的。具體為在駕駛室儀表盤上方安裝一個(gè)面向駕駛員臉部的攝像機(jī),攝像機(jī)鏡頭周圍配有紅外LED照明光源;利用攝像機(jī)采集駕駛員臉部圖像,對(duì)采集得到的每幀圖像進(jìn)行人臉檢測(cè)與跟蹤,在檢測(cè)得到的人臉區(qū)域中進(jìn)行人眼檢測(cè)與定位,并利用左右眼睛區(qū)域進(jìn)行人眼睜閉狀態(tài)識(shí)別,最后通過連續(xù)幀的檢測(cè)狀態(tài)進(jìn)行疲勞檢測(cè)。本發(fā)明可以準(zhǔn)確地對(duì)駕駛員疲勞進(jìn)行提示,具有對(duì)駕駛員無(wú)干擾、高實(shí)時(shí)性、高魯棒性的優(yōu)點(diǎn),且硬件成本低,易于推廣。
文檔編號(hào)G06T7/20GK102054163SQ200910233329
公開日2011年5月11日 申請(qǐng)日期2009年10月27日 優(yōu)先權(quán)日2009年10月27日
發(fā)明者任明武, 王歡, 王瓊, 趙春霞 申請(qǐng)人:南京理工大學(xué)