一種基于gpu的社會力模型人群實時仿真方法
【專利摘要】本發(fā)明涉及一種基于GPU的社會力模型人群實時仿真方法。包括:S1.設(shè)行人的受力感知范圍;S2.根據(jù)當前場景的結(jié)構(gòu)信息和行人受力感知范圍,采用均勻網(wǎng)格分割法來劃分虛擬場景,得到網(wǎng)格化的場景;S3.根據(jù)已分割好的場景,在行人受力感知范圍內(nèi)對與當前行人所在網(wǎng)格相鄰的8個近鄰網(wǎng)格中的行人進行并行化查詢獲得其他行人的分布信息;S4.根據(jù)行人受力感知范圍內(nèi)其他行人的分布信息并行化計算行人間相互作用力;S5.根據(jù)社會力模型的思想,CPU串行化計算行人的自驅(qū)力、行人與障礙物之間的作用力,結(jié)合行人間相互作用力,計算出當前行人新的速度和位置信息,完成群體的更新工作。本發(fā)明大大降低了算法的時間復(fù)雜度。
【專利說明】
-種基于GPU的社會力模型人群實時仿真方法
技術(shù)領(lǐng)域
[0001] 本發(fā)明設(shè)及計算機圖形學、系統(tǒng)仿真、虛擬現(xiàn)實等領(lǐng)域,更具體地,設(shè)及一種基于 GPU的社會力模型人群實時仿真方法。
【背景技術(shù)】
[0002] 隨著現(xiàn)代經(jīng)濟的迅速發(fā)展,人民的生活水平得到了巨大的提升,城市化已經(jīng)成為 了主流的趨勢。城市人口迅猛增長,城市規(guī)模無限制擴大的同時,也帶來了很多難W解決的 問題。在大型城市里,由于人口眾多、資源較為集中、±地面積較為有限,容易出現(xiàn)很多人聚 集在一個相當小區(qū)域的現(xiàn)象。城市的辦公樓和公寓變得越來越復(fù)雜,大型建筑業(yè)日益增多, 公共場所人群聚集的情況不可避免,但是所面臨的安全問題也越來越嚴重。
[0003] 與此同時,與體育、文化、娛樂和宗教活動有關(guān)的大型活動在世界各地也都定期舉 行。一旦發(fā)生突發(fā)事件,如果人群得不到很好的疏散,就會發(fā)生阻塞擁擠現(xiàn)象,人群在恐慌 情況下極易發(fā)生擁擠踩踏等災(zāi)難事件,容易造成嚴重的人員傷亡。發(fā)生突發(fā)事件時,如何快 速有效地組織人員及時疏散,從而有效地減少事故造成的人員傷亡,已成為國內(nèi)外公共安 全研究的重點。
[0004] 隨著計算機技術(shù)的飛躍發(fā)展,通過與計算機信息技術(shù)的相結(jié)合,建立基于計算機 的人群仿真系統(tǒng)來研究公共場所人群疏散問題,具有低投入、易操作、可重復(fù)、數(shù)據(jù)易采集 等優(yōu)勢。社會力模型作為人群仿真的經(jīng)典模型之一,它借鑒牛頓力學對行人在不同環(huán)境下 的主觀意愿、行人間相互作用W及行人與環(huán)境間的相互作用進行建模,并用社會力的概念 進行描述,能夠真實地重現(xiàn)許多現(xiàn)實世界里可觀察到的人群現(xiàn)象和規(guī)律。
[0005] 但是,隨著人群規(guī)模的增大,社會力模型指數(shù)級的算法時間復(fù)雜度單純依靠(PU串 行已無法滿足當前的需求,導(dǎo)致了原模型很難應(yīng)用于大規(guī)模實時人群仿真場景中。
[0006] 為了能夠利用社會力模型對上萬規(guī)模的人群進行實時仿真,有必要降低原算法的 時間復(fù)雜度W適應(yīng)大規(guī)模人群仿真,同時也可W利用更先進的技術(shù)、更多的硬件資源完成 運一需求。
【發(fā)明內(nèi)容】
[0007] 本發(fā)明為克服上述現(xiàn)有技術(shù)所述的至少一種缺陷,提供一種基于GPU的社會力模 型人群實時仿真方法,該方法借助社會力模型能夠真實地模擬出現(xiàn)實世界里人群運動的特 點,利用GPU多核并行計算的方法,在人群數(shù)量急劇增加的過程中保證了仿真的效率。
[000引為解決上述技術(shù)問題,本發(fā)明的技術(shù)方案如下: 一種基于GPU的社會力模型人群實時仿真方法,包括: 51. 設(shè)行人的受力感知范圍; 52. 根據(jù)當前場景的結(jié)構(gòu)信息和行人受力感知范圍,采用均勻網(wǎng)格分割法來劃分虛擬 場景,得到網(wǎng)格化的場景; 53. 根據(jù)已分割好的場景,在行人受力感知范圍內(nèi)對與當前行人所在網(wǎng)格相鄰的8個近 鄰網(wǎng)格中的行人進行并行化查詢獲得其他行人的分布信息; S4.根據(jù)行人受力感知范圍內(nèi)其他行人的分布信息并行化計算行人間相互作用力; S5.根據(jù)社會力模型的思想,CPU串行化計算行人的自驅(qū)力、行人與障礙物之間的作用 力,結(jié)合行人間相互作用力,計算出當前行人新的速度和位置信息,完成群體的更新工作。
[0009] 上述方案中,所述分布信息包括行人分布情況和行人總數(shù)。
[0010] 上述方案中,設(shè)行人受力感知范圍為圓形,步驟S2中虛擬場景分割時網(wǎng)格大小L與 行人受力感知范圍的半徑R相等。
[0011] 上述方案中,步驟S3的具體步驟包括: S31.初始化得到虛擬場景中每個網(wǎng)格的行人分布情況W及行人總數(shù); 533. 并行化查詢當前行人所在網(wǎng)格的8個近鄰網(wǎng)格,當查詢到近鄰網(wǎng)格內(nèi)行人數(shù)不為0 時,將該網(wǎng)格內(nèi)行人加入到當前行人所在網(wǎng)格的近鄰行人分布表中,得到當前行人所在網(wǎng) 格受力感知范圍的行人分布信息; 534. 將當前行人所在網(wǎng)格中的其他行人分布信息及其8個近鄰網(wǎng)格的其他行人分布信 息存入到受力感知范圍表。
[0012] 上述方案中步驟S4的具體步驟包括: 541. -個block表示一個網(wǎng)格單元,block中的每個線程thread代表該網(wǎng)格單元中的一 個行人; 542. 利用threadidx. X為0的線程得到當前網(wǎng)格W及其8個近鄰網(wǎng)格行人的數(shù)據(jù)信息; 543. 遍歷近鄰網(wǎng)格內(nèi)所有的行人更新其受力情況,如果所遍歷的行人狀態(tài)沒有更新 過,則進行更新工作,否則不再更新其信息; 544. 將行人所受的排斥力、反彈力和摩擦力疊加,返回行人間的相互作用力。
[0013] 上述方案中,步驟S5中更新的計算公式如下:
其中,^表示行人的加速度,t表示時間; 表示行人的自驅(qū) 漁 力,蠟征)和幫約分別表示行人期望速度的大小和方向,Tf表示松弛時間,撫《和瑪好)表 示行人1的質(zhì)量和速度,S ;;'..'和.之,^">...分別表示行人間的相互作用力和行人與障礙物間的作 彷的 用力J表示除行人i外的其他行人,W表示場景中的障礙物,通過上式(1)可W得到行人的當 前加速度,根據(jù)行人的當前加速度得到行人的速度和位置信息。
[0014] 與現(xiàn)有技術(shù)相比,本發(fā)明技術(shù)方案的有益效果是: 本發(fā)明在早期的社會力模型基礎(chǔ)上引入了行人受力感知范圍的概念,并根據(jù)該范圍的 大小采用均勻網(wǎng)格分割法對模擬的當前場景進行分割,將每個網(wǎng)格作為并行化人群實時仿 真方法的獨立更新單元,充分利用GPU多線程的特點,完成了行人狀態(tài)的并行化查詢和更新 工作。本發(fā)明相對于現(xiàn)有的社會力模型,由于縮小了并行化計算的范圍,大大降低了算法的 時間復(fù)雜度,可W由指數(shù)級降為線性級,同時也提高了仿真時的帖速,使得本發(fā)明的方法能 夠滿足實時性的要求。
【附圖說明】
[0015] 圖1為本發(fā)明一種基于GPU的社會力模型人群實時仿真方法具體實施例的人群信 息更新過程示意圖。
[0016] 圖2為本發(fā)明一種基于GPU的社會力模型人群實時仿真方法具體實施例的流程圖。
[0017] 圖3為本發(fā)明中均勻網(wǎng)格法分割場景及行人受力感知范圍的示意圖。
[0018] 圖4為本發(fā)明的方法與原社會力模型算法的CPU與GPU的FI^性能對比圖。
【具體實施方式】
[0019] 附圖僅用于示例性說明,不能理解為對本專利的限制; 為了更好說明本實施例,附圖某些部件會有省略、放大或縮小,并不代表實際產(chǎn)品的尺 寸; 對于本領(lǐng)域技術(shù)人員來說,附圖中某些公知結(jié)構(gòu)及其說明可能省略是可W理解的。
[0020] 下面結(jié)合附圖和實施例對本發(fā)明的技術(shù)方案做進一步的說明。
[0021] 實施例1 本發(fā)明的方法是采用人群仿真經(jīng)典模型之一的社會力模型,結(jié)合GPU并行技術(shù),使模型 能夠應(yīng)用到大規(guī)模實時人群仿真中。
[0022] 如圖1所示,是本發(fā)明一種基于GPU的社會力模型人群實時仿真方法具體實施例的 人群信息更新過程示意圖,該過程主要由兩部分組成:GPU并行化查詢更新行人狀態(tài)和CPU 串行化計算、擅染行人運動。兩部分相互協(xié)調(diào)完成整個人群實時仿真工作,在仿真的過程 中,各部分具體的實現(xiàn)功能如下: CPU端的主要工作有:初始化系統(tǒng)參數(shù),包括環(huán)境參數(shù)、行人運動參數(shù)、社會力模型參 數(shù)、行人數(shù)量W及行人初始位置信息等;根據(jù)場景和行人信息進行圖形繪制,主要包括圖形 頂點操作、紋理操作W及擅染操作等;串行化計算行人的自驅(qū)力、行人與障礙物之間的作用 力、行人受到的吸引力等;根據(jù)CPU端和GPU端得到的行人受力情況,計算行人所受合力大 小,然后基于牛頓力學計算出行人的當前加速度,進而對行人的速度和位置信息進行更新。
[0023] GPU端的主要工作有:資源初始化,準備GPU并行計算相關(guān)資源和準備存儲空間接 收內(nèi)存?zhèn)鬟f過來的數(shù)據(jù);并行化近鄰查詢,并行化計算行人間相互作用力;計算行人間所受 力的合力。
[0024] 具體地,如圖2所示,為本發(fā)明一種基于GPU的社會力模型人群實時仿真方法具體 實施例的流程圖。參見圖2,本具體實施例一種基于GPU的社會力模型人群實時仿真方法的 具體步驟包括: SlOl.設(shè)行人的受力感知范圍。
[0025] 行人在運動的過程中只會關(guān)注其自身某個范圍內(nèi)的變化,不會考慮遠處變化的影 響。本發(fā)明基于運一特點,提出了行人受力感知范圍的概念。每個行人都可W根據(jù)自己的受 力感知范圍來獲取該范圍內(nèi)其他行人的相關(guān)信息,而對于范圍外的行人則忽略,運樣不僅 降低了社會力模型的算法時間復(fù)雜度,而且可W充分利用GPU并行化計算能力并行化更新 行人狀態(tài)。
[0026] 其中,在本步驟中,其他行人的分布信息包括但不限于其他行人的分布情況和行 人總數(shù)。
[0027] S102.根據(jù)當前場景的結(jié)構(gòu)信息和行人受力感知范圍,采用均勻網(wǎng)格分割法來劃 分虛擬場景,得到網(wǎng)格化的場景。
[0028] 在此步驟中,采用均勻網(wǎng)格分割法對當前場景進行分割時網(wǎng)格大小是依據(jù)行人受 力感知范圍進行的。具體地: 根據(jù)社會力模型行人間相互作用力的計算公式可得,當行人間的距離為2m時,此時行 人間的社會力只有5.0 X 1(:廠5災(zāi),幾乎可W忽略不計,據(jù)此行人受力感知范圍設(shè)置時可 W定義半徑R為2m的圓所在范圍定為行人受力感知范圍。在仿真的過程中,每個行人都會根 據(jù)自己的受力感知范圍來獲取該范圍內(nèi)其他行人的相關(guān)信息,根據(jù)查詢到的信息計算得到 受力感知范圍內(nèi)其他行人作用于該行人的社會力大小,然后根據(jù)牛頓定律得到此刻該行人 的加速度并結(jié)合當前行人的運動狀態(tài)調(diào)整自身的速度大小及方向,實現(xiàn)行人位置的更新。
[0029] 在考慮了行人受力感知范圍內(nèi)行人的作用后,社會力模型的算法時間復(fù)雜度由原 來的按繡嗎降到了包錢I *MMC較巧,R表示行人受力感知范圍,R取如,錢舉轉(zhuǎn)麵表示行 人感知范圍內(nèi)能夠容納其他行人的最大值。對于劃分場景的網(wǎng)格大小L,當只需要考慮W該 行人所在的網(wǎng)格單元為中屯、的周圍8個網(wǎng)格單元中的行人對其影響時,網(wǎng)格單元的大小L大 于等于行人受力感知范圍R。另一方面,從算法復(fù)雜度的角度考慮,網(wǎng)格單元L越大,每個網(wǎng) 格內(nèi)就會容納更多的行人,算法的時間復(fù)雜度就會越高,因而需要網(wǎng)格單元大小L越小越 好,綜合來看,取網(wǎng)格大小L=R。如圖3所示,半徑為R的虛線圓形表示的行人受力感知范圍, 虛擬場景W該行人受力感知范圍的半徑R為基準進行分割,使得虛擬場景被分割成很多個 均勻的網(wǎng)格單元,每個網(wǎng)格一般情況下有8個相鄰的網(wǎng)格,每個網(wǎng)格單元中要么不包含行 人,要么包含一個或者多個行人。
[0030] S103.根據(jù)已分割好的場景,在行人受力感知范圍內(nèi)對與當前行人所在網(wǎng)格相鄰 的8個近鄰網(wǎng)格中的行人進行并行化查詢獲得其他行人的分布信息。在此步驟中,分布信息 包括但不限于行人分布情況和行人總數(shù)。本步驟的具體步驟具體如下: 51031. 初始化階段:初始化得到虛擬場景中每個網(wǎng)格的行人分布情況W及行人總數(shù)情 況; 51032. 通過GPU中當前線程位置的blockIdxW及threadidx獲取該當前行人所在網(wǎng)格 的編號; 51033. 通過當前行人所在網(wǎng)格的編號得到其8個近鄰網(wǎng)格的編號; 51034. 并行化近鄰查詢階段:并行化查詢當前行人所在網(wǎng)格的8個近鄰網(wǎng)格,當查詢到 近鄰網(wǎng)格內(nèi)行人數(shù)不為0時,將該網(wǎng)格內(nèi)行人加入到當前行人所在網(wǎng)格的近鄰行人分布表 中,得到當前行人所在網(wǎng)格受力感知范圍的行人分布信息。具體仿真時,CUDA中線程束warp 起到真正執(zhí)行的作用,而每個線程束warp包含32條線程,運樣將線程塊大小設(shè)置為32(32個 線程)。近鄰網(wǎng)格包括8個,對當前行人所在網(wǎng)格相鄰的8個網(wǎng)格行人的分布情況進行查詢需 要8個線程,而每個線程塊有32個進程,因而可W將4個網(wǎng)格的近鄰查詢操作總計32個 threads構(gòu)成一個線程塊block。并行化近鄰查詢后,可W得到當前網(wǎng)格受力感知范圍的行 人分布情況; S1035.將當前行人所在網(wǎng)格中的其他行人分布信息及其8個近鄰網(wǎng)格的其他行人分布 信息存入到受力感知范圍表。在所有近鄰查詢完成后,要計算行人受力感知范圍內(nèi)其他行 人產(chǎn)生的作用力,還需要考慮行人所在網(wǎng)格中行人的影響,因而最后可W用threadidx.X為 O的線程將當前行人所在網(wǎng)格中的行人及其近鄰網(wǎng)格的行人一起存入到受力感知范圍表 中。
[0031] S104.根據(jù)行人受力感知范圍內(nèi)其他行人的分布信息并行化計算行人間相互作 用力。
[0032] 由于行人自驅(qū)力、人與墻壁的作用力的計算耗時呈線性關(guān)系,可W用CPU串行計 算。此外,如果將行人作用力的計算W及行人速度位置的更新工作放在一起,必然會導(dǎo)致相 鄰網(wǎng)格數(shù)據(jù)更新的讀寫矛盾,運樣的話只能采取部分并行化更新策略,勢必會影響并行的 效果,因此,本發(fā)明中只并行化計算行人間作用力,具體步驟如下: S1041.資源配置:由于不存在數(shù)據(jù)更新的讀寫矛盾,因而用一個block表示一個網(wǎng)格單 元,block中的每個線程thread代表該網(wǎng)格單元中的一個行人; S42.初始化:利用threadidx.x為0的線程得到當前網(wǎng)格W及其8個近鄰網(wǎng)格行人的數(shù) 據(jù)信息;所述數(shù)據(jù)信息具體包括但不限于當前行人所在網(wǎng)格單元編號、8個近鄰網(wǎng)格編號、 當前行人所在網(wǎng)格的行人數(shù)目、近鄰網(wǎng)格行人數(shù)目、當前行人速度、當前行人位置、近鄰網(wǎng) 格行人位置。
[0033] S1043.遍歷近鄰網(wǎng)格內(nèi)所有的行人更新其受力情況,如果所遍歷的行人狀態(tài)沒有 更新過,則進行更新工作,否則不再更新其信息; S1044.將行人所受的排斥力、反彈力和摩擦力疊加,返回行人間的相互作用力。
[0034] S105.根據(jù)社會力模型的思想,CPU串行化計算行人的自驅(qū)力、行人與障礙物之間 的作用力,結(jié)合行人間相互作用力,計算出當前行人新的速度和位置信息,完成群體的更新 工作。
[0035] 具體地,步驟S105中更新的計算公式如下:
其中,;表示行人的加速度,t表示時間; 表示行人的自 dt 驅(qū)力,粹I錢)和琴觸分別表示行人期望速度的大小和方向,表示松弛時間,巧i和 萌掉3表示行人i的質(zhì)量和速度,嘉氣和I為分別表示行人間的相互作用力和行人與障礙 物間的作用力,j表示除行人i外的其他行人,W表示場景中的障礙物,通過上式(1)可W得到 行人的當前加速度,根據(jù)行人的當前加速度得到行人的速度和位置信息。
[0036] 更新完行人的位置信息后,就可W對行人的位置進行判斷,當判斷行人處于場景 外的,則可W將行人從行人集中移除,然后判斷人群是否疏散完畢,當判斷行人處于場景內(nèi) 的,接著判斷人群是否疏散完畢,如果沒有疏散完畢,接著執(zhí)行步驟S103及其后續(xù)步驟,直 到人群疏散完畢。
[0037] 利用本發(fā)明的方法與原社會力模型算法進行一系列仿真實驗,圖4為仿真實驗的 比較結(jié)果。參見圖4當群體的數(shù)目很少的情況下是無法體現(xiàn)出它的優(yōu)化程度,而當人群數(shù)目 增大時,在同等硬件配置條件下,并行化算法的優(yōu)勢就體現(xiàn)出來了。運里采用帖速FPS運一 參數(shù)作為優(yōu)化結(jié)果的評價參數(shù),相同條件下,帖速越高的算法用于計算的時間越少,時間復(fù) 雜度越低。從圖中可W看出,隨著人群數(shù)目的不斷增加,基于GPU算法的帖速相對于基于CPU 的倍數(shù)不斷增加,最多可達到6.5倍,并且在人群數(shù)目為10240人時,F(xiàn)PS仍有21,基本可W滿 足實時的效果。
[0038] 本發(fā)明的方法借助社會力模型能夠真實地模擬出現(xiàn)實世界里人群運動的特點,引 入行人受力感知范圍的概念,并根據(jù)該范圍的大小采用均勻網(wǎng)格分割法對模擬場景進行分 害d,然后將每個網(wǎng)格作為并行化人群實時仿真算法的獨立更新單元,充分利用GPU多線程的 特點,完成了行人狀態(tài)的并行化查詢和更新工作。本發(fā)明提出的基于GPU的社會力模型人群 實時仿真方法不僅在時間復(fù)雜度上要優(yōu)于原模型,而且仿真時的帖速也得到了很大的提 高,基本能夠滿足實時性的要求,能夠適用于大規(guī)模人群實時仿真。
[0039] 相同或相似的標號對應(yīng)相同或相似的部件; 附圖中描述位置關(guān)系的僅用于示例性說明,不能理解為對本專利的限制; 顯然,本發(fā)明的上述實施例僅僅是為清楚地說明本發(fā)明所作的舉例,而并非是對本發(fā) 明的實施方式的限定。對于所屬領(lǐng)域的普通技術(shù)人員來說,在上述說明的基礎(chǔ)上還可W做 出其它不同形式的變化或變動。運里無需也無法對所有的實施方式予W窮舉。凡在本發(fā)明 的精神和原則之內(nèi)所作的任何修改、等同替換和改進等,均應(yīng)包含在本發(fā)明權(quán)利要求的保 護范圍之內(nèi)。
【主權(quán)項】
1. 一種基于GRJ的社會力模型人群實時仿真方法,其特征在于,包括:51. 設(shè)行人的受力感知范圍;52. 根據(jù)當前場景的結(jié)構(gòu)信息和行人受力感知范圍,采用均勻網(wǎng)格分割法來劃分虛擬 場景,得到網(wǎng)格化的場景;53. 根據(jù)已分割好的場景,在行人受力感知范圍內(nèi)對與當前行人所在網(wǎng)格相鄰的8個近 鄰網(wǎng)格中的行人進行并行化查詢獲得其他行人的分布信息;54. 根據(jù)行人受力感知范圍內(nèi)其他行人的分布信息并行化計算行人間相互作用力; S5.根據(jù)社會力模型的思想,CPU串行化計算行人的自驅(qū)力、行人與障礙物之間的作用 力,結(jié)合行人間相互作用力,計算出當前行人新的速度和位置信息,完成群體的更新工作。2. 根據(jù)權(quán)利要求1所述的基于GPU的社會力模型人群實時仿真方法,其特征在于,所述 分布信息包括行人分布情況和行人總數(shù)。3. 根據(jù)權(quán)利要求1所述的基于GPU的社會力模型人群實時仿真方法,其特征在于,設(shè)行 人受力感知范圍為圓形,步驟S2中虛擬場景分割時網(wǎng)格大小L與行人受力感知范圍的半徑R 相等。4. 根據(jù)權(quán)利要求1所述的基于GPU的社會力模型人群實時仿真方法,其特征在于,步驟 S3的具體步驟包括:531. 初始化得到虛擬場景中每個網(wǎng)格的行人分布情況以及行人總數(shù);532. 并行化查詢當前行人所在網(wǎng)格的8個近鄰網(wǎng)格,當查詢到近鄰網(wǎng)格內(nèi)行人數(shù)不為0 時,將該網(wǎng)格內(nèi)行人加入到當前行人所在網(wǎng)格的近鄰行人分布表中,得到當前行人所在網(wǎng) 格受力感知范圍的行人分布信息;533. 將當前行人所在網(wǎng)格中的其他行人分布信息及其8個近鄰網(wǎng)格的其他行人分布信 息存入到受力感知范圍表。5. 根據(jù)權(quán)利要求1所述的基于GPU的社會力模型人群實時仿真方法,其特征在于,步驟 S4的具體步驟包括:541. -個block表示一個網(wǎng)格單元,block中的每個線程thread代表該網(wǎng)格單元中的一 個行人;542. 利用threadldx.x為0的線程得到當前網(wǎng)格以及其8個近鄰網(wǎng)格行人的數(shù)據(jù)信息;543. 遍歷近鄰網(wǎng)格內(nèi)所有的行人更新其受力情況,如果所遍歷的行人狀態(tài)沒有更新 過,則進行更新工作,否則不再更新其信息;544. 將行人所受的排斥力、反彈力和摩擦力疊加,返回行人間的相互作用力。6. 根據(jù)權(quán)利要求1至5任一項所述的基于GPU的社會力模型人群實時仿真方法,其特征 在于,步驟S5中更新的計算公式如下:其中,:?表示行人的加速度,t表示時間I示行人的自驅(qū) 力,讀_和髮_分別表示行人期望速度的大小和方向,表示松弛時間,_ :和 表示行人i的質(zhì)量和速度,和分別表示行人間的相互作用力和行人與障礙物間的作 用力,j表示除行人i外的其他行人,W表示場景中的障礙物,通過上式(1)可以得到行人的當 前加速度,根據(jù)行人的當前加速度得到行人的速度和位置信息。
【文檔編號】G06F9/455GK105955797SQ201610281593
【公開日】2016年9月21日
【申請日】2016年4月28日
【發(fā)明人】紀慶革, 王福川, 印鑒
【申請人】中山大學, 廣州智海縱橫信息科技有限公司, 廣州中大南沙科技創(chuàng)新產(chǎn)業(yè)園有限公司