本發(fā)明屬于智能交通技術領域,具體涉及一種駕駛人注意力自動識別系統(tǒng)及其識別方法。
背景技術:弗吉尼亞州科技運輸協會和美國全國高速公路安全局的研究人員在為期1年內共同完成了一項調查,他們通過對數千小時的交通事故錄像資料進行研究得出結論認為,在已經發(fā)生的交通事故或者一些諸如碰撞、剮蹭及其他小摩擦事故中,駕駛人注意力分散是最重要的原因。報告中說,在已經發(fā)生的車禍中,屬注意力不集中引起的占80%。而在差一點發(fā)生車禍的交通事故中,有65%都是由于駕駛人的注意力不集中造成的。駕駛人注意力不集中(如駕駛人在開車時接打電話、與他人交談、睡眠不足、吃東西等),已經是造成車禍發(fā)生的最主要原因。隨之就出現了監(jiān)測駕駛人注意力狀態(tài)、預防駕駛人注意力分散的方法和設備。公開號為CN203020194的中國專利文獻,公開了一種基于圖像處理技術的預防駕駛員分散注意力的裝置,包括CCD攝像機、DSP處理器、手機屏蔽器和聲光報警器。該裝置不僅可以識別駕駛員使用電話,還可以識別駕駛員是否在行駛過程中吃東西等分散注意力的行為,當駕駛員在吃東西或使用手機時,DSP處理器發(fā)出指令給聲光報警器和手機屏蔽器,提醒駕駛員不要使用手機或吃東西。上述裝置存在一個明顯的缺陷:僅能識別駕駛員使用電話、吃東西等幾種具體的分散注意力的行為,當駕駛員出現該裝置不能識別的其他分散注意力的行為時,就有可能出現因為不能及時識別危險行為而導致事故發(fā)生的情況。
技術實現要素:本發(fā)明提供一種駕駛人注意力自動識別系統(tǒng),目的在于通過判斷駕駛人頭部姿態(tài)變化情況,提出一種更具實時性和安全性的駕駛人注意力自動識別系統(tǒng),并對注意力不集中的危險駕駛行為進行實時警示。為了解決現有技術中的這些問題,本發(fā)明提供的技術方案是:一種駕駛人注意力自動識別系統(tǒng),包括圖像采集裝置、圖像處理裝置和報警裝置,其特征在于所述圖像采集裝置用于實時獲取駕駛人面部圖像,并將采集的駕駛人圖像傳輸給圖像處理裝置;所述圖像處理裝置用于通過駕駛人圖像獲取駕駛人相對姿態(tài)角,根據駕駛人注意力判別模型分析判斷駕駛人注意力狀態(tài);所述報警裝置用于當圖像處理裝置判定駕駛人處于注意力不集中狀態(tài)時進行報警提示。優(yōu)選的技術方案是:所述報警裝置選自以下報警提示器的一種或者兩者以上的任意組合:LED燈、語音報警器、安全帶振動器及座椅振動器。優(yōu)選的技術方案是:所述圖像采集裝置選自攝像頭,攝像頭的輸出端與圖像處理裝置的輸入端連接。優(yōu)選的技術方案是:所述圖像處理裝置為DSP處理系統(tǒng),DSP處理系統(tǒng)的輸出端與報警裝置的輸入端連接。優(yōu)選的技術方案是:所述圖像采集裝置安裝在車輛儀表盤的上方,以可拍攝到駕駛人面對車輛正前方時的正面人臉圖像為安裝的基準。本發(fā)明的另一目的在于提供一種駕駛人注意力自動識別方法,其特征在于所述方法包括以下步驟:(1)采集駕駛人面部圖像;(2)通過駕駛人圖像獲取駕駛人相對姿態(tài)角,根據駕駛人注意力判別模型分析判斷駕駛人注意力狀態(tài);(3)當圖像處理裝置判定駕駛人處于注意力不集中狀態(tài)時進行報警提示。優(yōu)選的技術方案是:所述方法步驟(2)中是通過利用射影變換原理來完成獲取駕駛人相對姿態(tài)角,具體包括以下步驟:1)通過駕駛人圖像獲取人臉區(qū)域,在人臉區(qū)域內檢測角點;2)采用L-K光流跟蹤算法對人臉區(qū)域內角點跟蹤,遴選出作為參與姿態(tài)角解算的點;3)通過人臉跟蹤基礎上遴選出的特征點集,可由外極線方程解出本征矩陣,平移向量;4)根據本征矩陣獲得旋轉矩陣的正確解,根據旋轉矩陣獲得駕駛人頭部運動繞3個坐標軸旋轉的歐拉角,即可獲取駕駛人相對姿態(tài)角。優(yōu)選的技術方案是:所述方法中假定駕駛人頭部某點M相對于攝像機坐標系從時刻tk的位置(xk,yk,zk)運動到tk+1的位置(xk+1,yk+1,zk+1),其在二維圖像平面上的投影從(x′k,y′k)運動到(x′k+1,y′k+1),設旋轉矩陣和平移向量分別為Rk和Tk,則得到三維剛體運動模型:根據攝像機透視投影模型,得到:則:在規(guī)范化透視投影(F=1)下,它們之間滿足外極限方程約束關系,即:則本征矩陣E為:E=[Tk]×Rk;其中[Tk]×為平移向量Tk的反對稱陣。優(yōu)選的技術方案是:所述方法中假設平移向量為T,本征矩陣為E,則通過求解公式:其中約束條件為:||T||2,獲得平移向量T。優(yōu)選的技術方案是:所述方法中旋轉矩陣R用歐拉角表示的形式為:根據旋轉矩陣R獲得姿態(tài)角的計算公式:α=tan-1(r21/r11)γ=tan-1(r32/r33)。另外,本發(fā)明技術方案中需要優(yōu)選構建駕駛人注意力判別模型,根據采集到的面部圖像的分析結果通過駕駛人注意力判別模型判斷駕駛人注意力狀態(tài)。注意力分散的情況主要有兩類,一類由于次任務較多或較復雜,導致需要較長的總時間完成次任務,這種情況主要表現是駕駛人頭部偏離路面的時間比例變大。第二類是駕駛人頭部持續(xù)偏離路面一段時間,會導致這段時間內駕駛人停止操縱車輛,易出現車道偏離的情況,容易發(fā)生車禍。本發(fā)明駕駛人注意力判別模型按照如下方式進行構建:當視線偏離的持續(xù)時間超過2s就報警注意力分散,如果沒有則在固定時間窗內監(jiān)測,看正前方道路的時間比例是否小于70%,如果有,則報警注意力分散,否則為注意力正常狀態(tài)。通過采集這些條件下駕駛人相對姿態(tài)角來構建駕駛人注意力判別模型,結合時間要素來判斷駕駛人是否處于注意力分散狀態(tài)?,F有技術中駕駛人注意力識別設備大多只針對幾種具體的分散注意力的行為,當出現設備不能識別的注意力不集中的行為時,容易出現危險情況的發(fā)生。而本發(fā)明根據駕駛人頭部姿態(tài)的變化來判斷駕駛人注意力狀態(tài),根據判斷的駕駛人注意力狀態(tài)決定是否進行駕駛員疲勞預警。在駕駛員疲勞預警系統(tǒng)中,根據駕駛人注意力狀態(tài)來判斷人的疲勞狀態(tài),有助于構建實時、精確的疲勞預警系統(tǒng)。本發(fā)明技術方案的駕駛人注意力自動識別系統(tǒng)包括攝像頭、基于DM6437的DSP處理系統(tǒng)、報警裝置;其中,攝像頭的輸出端與DSP處理系統(tǒng)的輸入端連接,DSP處理系統(tǒng)的輸出端與報警裝置的輸入端連接。本發(fā)明技術方案的駕駛人注意力自動識別方法,包括以下步驟:1.采集視頻圖像:攝像頭可安裝在車輛儀表盤的上方,以可拍攝到駕駛人面對車輛正前方時的正面人臉圖像為基準,車輛啟動后,采用攝像頭進行視頻圖像采集,實時獲取駕駛人面部狀態(tài)信息。其中,為了能使本系統(tǒng)在夜間行駛時也能正常工作,在攝像頭上還安裝了紅外LED燈,它會根據周圍的光線環(huán)境自動開啟紅外燈,以彌補光線的不足,而且它發(fā)射出的肉眼不可見的光線不影響駕駛人正常行駛。2.DSP處理系統(tǒng)分析圖像:視頻信號經過轉換后傳送至DSP處理系統(tǒng)進行分析。DSP處理系統(tǒng)的主要任務是如何判別駕駛人注意力狀態(tài)。本發(fā)明中,駕駛人注意力分散狀態(tài)的判別是通過在時間域上對駕駛人朝向的分析來實現的,可分為以下兩個步驟:(1)基于射影幾何原理解算駕駛人相對姿態(tài)角在本發(fā)明中,駕駛人相對姿態(tài)角的解算是利用射影變換原理來完成的?;谏溆皫缀卧斫馑泷{駛人相對姿態(tài)角的算法流程主要包括如下步驟:1)通過駕駛人圖像獲取人臉區(qū)域,在人臉區(qū)域內檢測角點;2)采用L-K光流跟蹤算法對人臉區(qū)域內角點跟蹤,遴選出作為參與姿態(tài)角解算的點;3)通過人臉跟蹤基礎上遴選出的特征點集,可由外極線方程解出本征矩陣,平移向量;4)根據本征矩陣獲得旋轉矩陣的正確解,根據旋轉矩陣獲得駕駛人頭部運動繞3個坐標軸旋轉的歐拉角,即可獲取駕駛人相對姿態(tài)角。(2)建立駕駛人注意力判別模型,根據分析結果判斷駕駛人注意力狀態(tài)注意力分散的情況主要有兩類,一類由于次任務較多或較復雜,導致需要較長的總時間完成次任務,這種情況主要表現是駕駛人頭部偏離路面的時間比例變大。第二類是駕駛人頭部持續(xù)偏離路面一段時間,會導致這段時間內駕駛人停止操縱車輛,易出現車道偏離的情況,容易發(fā)生車禍。本發(fā)明建立注意力判別模型如下:當視線偏離的持續(xù)時間超過2s就報警注意力分散,如果沒有則在固定時間窗內監(jiān)測,看正前方道路的時間比例是否小于70%,如果有,則報警注意力分散,否則為注意力正常狀態(tài)。3.判斷是否報警和報警的具體方式:當判定駕駛人處于注意力不集中狀態(tài)時進行報警提示。本發(fā)明中注意力分散狀態(tài)的報警系統(tǒng)有多種方式。當發(fā)生注意力分散的情況時,考慮到報警方式的可接受性和報警效果,可采用以下報警方式:閃爍的LED燈、語音報警、安全帶振動及座椅振動。相對于現有技術中的方案,本發(fā)明的優(yōu)點是:1.駕駛人不同的注意力分散狀態(tài)有不同的行為特征,現有的一些裝置只針對具體的某幾種行為來識別駕駛人的注意力狀態(tài),存在一定的局限性;本發(fā)明中的駕駛人注意力自動識別系統(tǒng),不針對具體的注意力分散行為,而是根據駕駛人頭部姿態(tài)的變化來判斷駕駛人注意力狀態(tài)。2.本發(fā)明中采用基于射影幾何原理解算駕駛人相對姿態(tài)角的算法進行駕駛人頭部姿態(tài)估計。3.本發(fā)明的人臉檢測通過優(yōu)先級不同的兩條途徑達到。當人臉處于正面位置時,由Adaboost和ASM構成的機器學習算法作為第一優(yōu)先級獨立完成人臉檢測;若在下一幀圖像中,由于姿態(tài)或光照變化的原因使得機器學習算法失效時,則啟用作為第二優(yōu)先級的判別模型完成人臉檢測。4.本發(fā)明建立駕駛人注意力判別模型,根據駕駛人頭部姿態(tài)估計的分析結果判斷駕駛人注意力狀態(tài)。5.本發(fā)明中的技術為以后的進一步研究工作打下了基礎。駕駛人注意力自動識別是駕駛員疲勞檢測的關鍵技術之一,在駕駛員疲勞預警系統(tǒng)中,根據駕駛人注意力狀態(tài)來判斷人的疲勞狀態(tài),有助于構建實時、精確的疲勞預警系統(tǒng)。附圖說明下面結合附圖及實施例對本發(fā)明作進一步描述:圖1為本發(fā)明的駕駛人注意力自動識別系統(tǒng)的結構示意圖;圖2為本發(fā)明駕駛人注意力自動識別方法中人臉檢測方法流程圖;圖3為本發(fā)明駕駛人注意力自動識別方法中基于射影幾何原理解算駕駛人相對姿態(tài)角的方法流程圖;圖4為本發(fā)明駕駛人注意力自動識別方法中判斷注意力是否分散的方法流程圖。具體實施方式以下結合具體實施例對上述方案做進一步說明。應理解,這些實施例是用于說明本發(fā)明而不限于限制本發(fā)明的范圍。實施例中采用的實施條件可以根據具體廠家的條件做進一步調整,未注明的實施條件通常為常規(guī)實驗中的條件。實施例圖1為本發(fā)明中的駕駛人注意力自動識別系統(tǒng)結構示意圖。所述系統(tǒng)包括圖像采集裝置、圖像處理裝置和報警裝置,所述圖像采集裝置用于實時獲取駕駛人面部圖像,并將采集的駕駛人圖像傳輸給圖像處理裝置;所述圖像處理裝置用于通過駕駛人圖像獲取駕駛人相對姿態(tài)角,根據駕駛人注意力判別模型分析判斷駕駛人注意力狀態(tài);所述報警裝置用于當圖像處理裝置判定駕駛人處于注意力不集中狀態(tài)時進行報警提示。具體系統(tǒng)硬件方面圖像采集裝置采用攝像頭,圖像處理裝置采用基于DM6437的DSP處理系統(tǒng);報警裝置采用閃爍的LED燈、語音報警、安全帶振動及座椅振動等。其中,攝像頭的輸出端與DSP處理系統(tǒng)的輸入端連接,DSP處理系統(tǒng)的輸出端與報警裝置的輸入端連接。進行駕駛人注意力自動識別時,按照如下步驟進行:(1)采集視頻圖像:攝像頭可安裝在車輛儀表盤的上方,以可拍攝到駕駛人面對車輛正前方時的正面人臉圖像為基準,車輛啟動后,采用攝像頭進行視頻圖像采集,實時獲取駕駛人面部狀態(tài)信息。其中,為了能使本系統(tǒng)在夜間行駛時也能正常工作,在攝像頭上還安裝了紅外LED燈,它會根據周圍的光線環(huán)境自動開啟紅外燈,以彌補光線的不足,而且它發(fā)射出的肉眼不可見的光線不影響駕駛人正常行駛。(2)分析處理圖像采用DSP處理系統(tǒng)進行分析和處理圖像。攝像頭采集的視頻信號經過轉換后傳送至DSP處理系統(tǒng)進行分析。DSP處理系統(tǒng)的主要任務是如何判別駕駛人注意力狀態(tài)。駕駛人注意力分散狀態(tài)的判別是通過在時間域上對駕駛人朝向的分析來實現的,可分為以下兩個具體步驟:1)基于射影幾何原理解算駕駛人相對姿態(tài)角在本發(fā)明中,駕駛人相對姿態(tài)角的解算是利用射影變換原理來完成的?;谏溆皫缀卧斫馑泷{駛人相對姿態(tài)角的算法流程主要包括如下步驟:第一步:人臉區(qū)域檢測;第二步:角點檢測;第三步:人臉區(qū)域內角點跟蹤(L-K光流跟蹤算法);第四步:計算本征矩陣;第五步:估計平移向量T;第六步:計算旋轉矩陣R;第七步:旋轉歐拉角的計算。其中,第一步的具體實施步驟為:本發(fā)明的人臉檢測可通過優(yōu)先級不同的兩條途徑達到。當人臉處于正面位置時,由Adaboost和ASM構成的機器學習算法作為第一優(yōu)先級獨立完成人臉檢測,并實現前景與背景的分離,依據前景進行自適應膚色建模,依據背景實現純背景建模,構建基于膚色信息與運動信息的人臉判別模型。若在下一幀圖像中,由于姿態(tài)或光照變化的原因使得機器學習算法失效時,則啟用作為第二優(yōu)先級的判別模型完成人臉檢測。需要指出的是,之所以將運動信息和膚色信息結合而不是單獨基于膚色信息進行判別模型的設計,是因為車內飾多采用近似于膚色的暖色調設計,單純基于膚色的模型易受駕駛室內環(huán)境的干擾。膚色信息和運動信息互為補充,既可以克服窗外景物干擾,又可防止駕駛室內飾干擾,提高了人臉檢測精度。如圖2所示,為本發(fā)明中的人臉檢測算法框圖。其中,第二步的具體實施步驟為:基于射影幾何解算駕駛人相對姿態(tài)角是在對面部區(qū)域內角點進行跟蹤基礎上實現的。在利用視頻中兩幀圖像解算駕駛人姿態(tài)角相對變化時,需要知道物空間目標上特征點集在前后幀圖像上的坐標。若已知前后幀圖像上的八個特征點(內外眼角點、鼻孔點以及嘴角點),根據射影幾何的理論,就可以將面部的姿態(tài)角解算出來。然而在大角度范圍內準確檢測這些特征點難度較大;另一方面,內外眼角、鼻孔和嘴角在圖像上都會占據一定的像素范圍,很難保證駕駛人處于正面姿態(tài)時檢測到的這些特征點是強角點。因此,在對這些孤立的特征點進行跟蹤時,經常會出現跟蹤失敗的情況。任何一個特征點跟蹤失敗都將使姿態(tài)角解算無法進行。為了克服這一困難,在特征點集的選擇上,本發(fā)明不是選取特定的特征點(例如上文提到的眼角點、嘴角點等)進行跟蹤,而是在整個場景范圍內將角點強度超過某一閾值的所有點全部找出來,然后根據人臉區(qū)域的檢測結果,只保留人臉區(qū)域范圍內的角點作為候選點。其中,第三步的具體實施步驟為:將人臉區(qū)域分割為九個子區(qū)域,分別標記為1-9。在每個子區(qū)域內,將光流向量沿圖像坐標系的x,y軸分解。設x方向的最大值和最小值分別為umax和umin,y方向的最大值和最小值分別為vmax和vmin。分別以Δu=(umax-umin)/5和Δv=(vmax-vmin)/5為步長對x方向和y方向的光流分量進行離散化,并作出x方向分量和y方向分量直方圖。設x分量直方圖上,角點在μ0+Δu范圍分布最多,而在y分量直方圖上,角點在v0+Δv范圍分布最多。遍歷子區(qū)域內所有角點,若該角點在x方向的光流分量在μ0+Δu范圍,同時y方向的分量在v0+Δv范圍,則把它遴選出來作為參與姿態(tài)角解算的點。其中,第四步的具體實施步驟為:利用射影變換解算駕駛人姿態(tài)角的實質是利用二維圖像序列來估計駕駛人的三維運動參數,頭部姿態(tài)的問題可描述為由二維圖像平面上點的運動恢復三維空間中點的運動,通過一系列的處理手段將圖像的底層像素級描述轉化為上層角度的概念。更具體的說,假定駕駛人頭部某點M相對于攝像機坐標系從時刻tk的位置(xk,yk,zk)運動到tk+1的位置(xk+1,yk+1,zk+1),它在二維圖像平面上的投影從(x′k,y′k)運動到(x′k+1,y′k+1),設旋轉矩陣和平移向量分別為Rk和Tk,則得到三維剛體運動模型:設空間點(xk,yk,zk)在圖像平面上的投影為(x′k,y′k),根據攝像機透視投影模型,可得到:于是有在規(guī)范化透視投影(F=1)下,它們之間滿足外極限方程約束關系,即:該式可簡化表示為:其中,E稱為本征矩陣,即:E=Tk×Rk;為方便運算,可引入平移向量Tk的反對稱陣[Tk]×則本征矩陣可表示為:E=[Tk]×Rk。至此,可以得出如下結論:通過人臉跟蹤基礎上遴選出的特征點集,可由外極線方程解出本征矩陣E。于是,駕駛人姿態(tài)估計的問題就轉化為從本征矩陣E根據公式E=[Tk]×Rk解算旋轉矩陣Rk和平移向量Tk的問題。其中,第五步的具體實施步驟為:目前由本征矩陣估計運動參數一般是通過優(yōu)化算法來解算的。平移向量T可以通過求解下式得到:其中約束條件為:||T||2=1。T實際上是對應矩陣ETE的最小特征值的單位范數矢量。其中,第六步的具體實施步驟為:由于采用優(yōu)化算法計算旋轉矩陣R比較復雜,且解經常不唯一,因此,本發(fā)明將引用許多學者在本征矩陣性質研究中得到的一些有益的結論,給出由本征矩陣求解旋轉矩陣的解析解的方法,并給出了嚴格的數學證明。定理1:本征矩陣在相差一常數因子下,被奇異值分解為可獲得在本次分解下滿足本質矩陣約束的旋轉矩陣R的兩個可能解,它們是:其中k=±1,d=det(U)det(V)。從該定理可以看出:若對本征矩陣進行奇異值分解,則根據公式就可以計算出旋轉矩陣R。但這里存在兩個問題:一是奇異值分解結果并不唯一,在這種情況下,根據公式算出的旋轉矩陣R是否唯一;二是根據公式得到了旋轉矩陣的兩個解,如何確認哪個解是真正的解。文獻研究進一步得到了關于本征矩陣的兩個良好性質:定理2:本質矩陣E在相差一常數因子下,作奇異值分解(Un,Vn)為任意一對滿足E的奇異值分解的正交陣,n=1,2,3...,當分別n=i和n=j且i≠j時,則每次分解所獲得的旋轉矩陣R的兩個可能解對應相等。定理3:攝像機作剛體運動,將兩像平面中對應點單位化U0,U2,由本征矩陣奇異值分解所得旋轉矩陣兩個解R,R'應滿足(RTU2×R'TU2)·U0=0;且RTU2,R'TU2關于單位平移矢量T0對稱。從定理2可以看出對本征矩陣E的任一奇異值分解都會得到相同的旋轉矩陣R。從定理3可以導出旋轉矩陣錯誤解將U2旋至攝像機后方,這在物理上是不可實現的,通常攝像機剛體運動前后觀測的景物應始終在攝像機前方。由此不難得到判別旋轉矩陣正確解的方法,即檢驗矢量夾角U0,RTU2和U0,R'TU2大小,即可得到與小夾角所對應的旋轉矩陣R為正確解。其中,第七步的具體實施步驟為:旋轉矩陣R求解出來后,需要將駕駛人頭部運動繞3個坐標軸旋轉的歐拉角計算出來。旋轉矩陣R用歐拉角表示的形式為:由此可以推導出由旋轉矩陣求解姿態(tài)角的計算公式,如下式所示:α=tan-1(r21/r11)γ=tan-1(r32/r33)。2)建立駕駛人注意力判別模型,根據分析結果判斷駕駛人注意力狀態(tài)注意力分散的情況主要有兩類,一類由于次任務較多或較復雜,導致需要較長的總時間完成次任務,這種情況主要表現是駕駛人頭部偏離路面的時間比例變大。第二類是駕駛人頭部持續(xù)偏離路面一段時間,會導致這段時間內駕駛人停止操縱車輛,易出現車道偏離的情況,容易發(fā)生車禍。對于第一類情況,研究表明,在注意力集中時,80%-90%的時間比例朝向前方;注意力高度分散時,小于50%的時間比例朝向前方;對于安全駕駛,大部分視線(>70%)都會分配到前方道路上,為此,本發(fā)明采用的第一個判別規(guī)則為:固定時間窗內,視線偏離前方道路范圍的時間比例小于70%判斷為注意力分散。對于第二類情況,Green提出駕駛人正常駕駛時,單次視線偏離持續(xù)時間最長1.2-1.85s,大部分低于1.2s;Kurokawa&Wierwill提出離開道路的視線持續(xù)時間典型的應為1-1.5s;Rockwell提出了2s規(guī)則,即離開道路視線持續(xù)時間應小于2s。所以采用的第二個判別規(guī)則為:單次視線偏離持續(xù)時間大于2s判斷為注意力分散。本發(fā)明建立注意力判別模型如下:當視線偏離的持續(xù)時間超過2s就報警注意力分散,如果沒有則在固定時間窗內監(jiān)測看正前方道路的時間比例是否小于70%,如果有,則報警注意力分散,否則為注意力正常狀態(tài)。(3)根據判斷條件進行報警。當判定駕駛人處于注意力不集中狀態(tài)時進行報警提示。本發(fā)明中注意力分散狀態(tài)的報警系統(tǒng)有多種方式。當發(fā)生注意力分散的情況時,考慮到報警方式的可接受性和報警效果,可采用以下報警方式:閃爍的LED燈、語音報警、安全帶振動及座椅振動。該方法根據駕駛人注意力狀態(tài)來判斷人的疲勞狀態(tài),有助于構建實時、精確的疲勞預警系統(tǒng)。上述實例只為說明本發(fā)明的技術構思及特點,其目的在于讓熟悉此項技術的人是能夠了解本發(fā)明的內容并據以實施,并不能以此限制本發(fā)明的保護范圍。凡根據本發(fā)明精神實質所做的等效變換或修飾,都應涵蓋在本發(fā)明的保護范圍之內。