新聞中心
隨著計算機(jī)硬件的發(fā)展,現(xiàn)代計算機(jī)系統(tǒng)都擁有多個核心和超線程技術(shù),這使得操作系統(tǒng)的設(shè)計越來越注重多核心和多線程的并發(fā)處理。而Linux的設(shè)計以及開放源代碼的特點,使其成為一種非常流行的多核心和多線程操作系統(tǒng)。本文將深入,旨在探討Linux如何有效地支持多核心和多線程。

黃龍網(wǎng)站制作公司哪家好,找創(chuàng)新互聯(lián)!從網(wǎng)頁設(shè)計、網(wǎng)站建設(shè)、微信開發(fā)、APP開發(fā)、響應(yīng)式網(wǎng)站開發(fā)等網(wǎng)站項目制作,到程序開發(fā),運(yùn)營維護(hù)。創(chuàng)新互聯(lián)2013年至今到現(xiàn)在10年的時間,我們擁有了豐富的建站經(jīng)驗和運(yùn)維經(jīng)驗,來保證我們的工作的順利進(jìn)行。專注于網(wǎng)站建設(shè)就選創(chuàng)新互聯(lián)。
一、Linux系統(tǒng)的多核心和超線程技術(shù)
多核心技術(shù)是一種新型的計算機(jī)CPU硬件設(shè)計技術(shù),它允許計算機(jī)有多個處理器核心。這意味著在相同的時間內(nèi),計算機(jī)可以執(zhí)行更多指令和處理更多數(shù)據(jù),從而提高計算機(jī)的性能。在Linux系統(tǒng)中,多核心處理器是以多個CPU的形式實現(xiàn)的,每個CPU都包含一個或多個處理器核心。此外,超線程技術(shù)也允許每個核心可以同時處理兩個線程,這樣更有效地利用每個處理器核心的資源。
二、Linux系統(tǒng)的多線程模型
Linux系統(tǒng)支持多種多線程模型。其中最常用的模型是基于POSIX.1標(biāo)準(zhǔn)的線程庫,也稱為pthread庫。這個庫允許程序員利用多個線程來同時執(zhí)行不同的任務(wù)。另一個流行的模型是OpenMP,在高性能計算領(lǐng)域廣泛應(yīng)用。
Linux系統(tǒng)中的多線程模型允許程序員使用多個線程來充分利用系統(tǒng)的多核心特性。使用多線程程序,能夠允許多個線程并發(fā)執(zhí)行不同的任務(wù),從而使整個程序更高效和更快速的運(yùn)行。借助于多線程,可以更好地利用多核心處理器的計算能力。
三、Linux系統(tǒng)的線程調(diào)度
Linux系統(tǒng)采用了一種搶占式的線程調(diào)度方式,這使得內(nèi)核可以在任何時候強(qiáng)制執(zhí)行并切換線程。在Linux系統(tǒng)中,內(nèi)核具有兩種線程調(diào)度策略:批量輪換和實時輪換。
批量輪換算法是Linux系統(tǒng)默認(rèn)的線程調(diào)度策略,它允許CPU分時對多個進(jìn)程或線程進(jìn)行輪換,讓每個進(jìn)程或線程都有平等的機(jī)會執(zhí)行。而實時輪換算法允許特定線程優(yōu)先執(zhí)行,確保它們能夠及時響應(yīng)系統(tǒng)的事件和需要。
四、Linux系統(tǒng)的并發(fā)和同步
并發(fā)和同步是多線程編程中最重要的問題。Linux系統(tǒng)使用了一系列機(jī)制來確保多個線程之間的正確性和一致性,例如,信號量,互斥鎖,條件變量等。
信號量是Linux系統(tǒng)中最基本的同步機(jī)制,它允許多個線程之間進(jìn)行協(xié)調(diào)和同步?;コ怄i是另一個常見的同步機(jī)制,它允許只有一個線程能夠訪問共享數(shù)據(jù)。條件變量允許線程等待某個條件的發(fā)生,而不必占用CPU的時間。
五、Linux系統(tǒng)的優(yōu)化
在使用Linux系統(tǒng)的多核心和多線程技術(shù)時,優(yōu)化是一個很重要的方向。在Linux系統(tǒng)中,可以通過調(diào)整內(nèi)核參數(shù)和優(yōu)化線程模型來實現(xiàn)優(yōu)化。
其中一些優(yōu)化選項包括使用NUMA感知,避免鎖競爭,使用定時器來盡可能多地利用CPU的空閑時間。此外,在Linux系統(tǒng)中,也可以使用一些工具,如GNU Profler,gdb和strace等,來幫助進(jìn)行性能分析和調(diào)試。
六、結(jié)論
Linux系統(tǒng)是一個可靠而強(qiáng)大的多核心和多線程操作系統(tǒng),它允許程序員使用多線程來充分利用系統(tǒng)的多核心CPU特性,以提高程序的性能和效率。本文介紹了Linux多核多線程技術(shù)的基礎(chǔ)知識,包括多核心和超線程技術(shù),多線程模型,線程調(diào)度,以及并發(fā)和同步機(jī)制等。在使用Linux系統(tǒng)的多核心和多線程技術(shù)時,可以通過優(yōu)化內(nèi)核參數(shù)和線程模型,以及使用一些性能分析和調(diào)試工具來實現(xiàn)優(yōu)化。
相關(guān)問題拓展閱讀:
- 如何看懂《Linux多線程服務(wù)端編程
如何看懂《Linux多線程服務(wù)端編程
一:進(jìn)程和線程
每個進(jìn)程有自己獨立的地址空間。“在同一個進(jìn)程”還是“不在同一個進(jìn)程”是系統(tǒng)功能劃分的重要決策點?!禘rlang程序設(shè)計》把進(jìn)程比喻為人:
每個人有自己的記憶(內(nèi)存),人與人通過談話(消息傳遞)來交流,談話既可以是面談姿并野(同一臺服務(wù)器),也可以在里談(不同的服務(wù)器,有網(wǎng)絡(luò)通信)。面談和談的區(qū)別在于,面談可以立即知道對方是否死了(crash,SIGCHLD),而談只能通過周期性的心跳來判斷對方是否還活著。
有了這些比喻,設(shè)計分布式系統(tǒng)時可以采取“角色扮演”,團(tuán)隊里的幾個人各自扮演一個進(jìn)程,人的角色由進(jìn)程的代碼決定(管登錄的、管消息分發(fā)的、管買賣的等等)。每個人有自己的記憶,但不知道別人的記憶,要想知道別人的看法,只能通過交談(暫不考慮共享內(nèi)存這種IPC)。然后就可以思考:跡喊
·容錯:萬一有人突然死了
·擴(kuò)容:新人中途加進(jìn)來
·負(fù)載均衡:把甲的活兒挪給乙做
·退休:甲要修復(fù)bug,先別派新任務(wù),等他做完手上的事情就把他重啟
等等各種場景,十分便利。
線程的特點是共享地址空間,從而可以高效地共享數(shù)據(jù)。一臺機(jī)器上的多個進(jìn)程能高效地共享代碼段(操作系統(tǒng)可以映射為同樣的物理內(nèi)存),但不能共享數(shù)據(jù)。如果多個進(jìn)程大量共享內(nèi)存,等于是把多進(jìn)程程序當(dāng)成多線程來寫,掩耳盜鈴。
“多線程”的價值,我認(rèn)為是為了更好地發(fā)揮多核處理器(multi-cores)的效能。在單核時代,多線程沒有多大價值(個人想法:如果要完成的任務(wù)是CPU密集型的,那多線程沒有優(yōu)勢,甚至因為線程切換的開銷,多線程反而更慢;如果要完成的任務(wù)既有CPU計算,又有磁盤或網(wǎng)絡(luò)IO,則使用多線程的好處是,當(dāng)某個線程因為IO而阻塞時,OS可以調(diào)度其他線程執(zhí)行,雖然效率確實要比任務(wù)的順序執(zhí)行效率要高,然而,這種類型的任務(wù),可以通過單線程的”non-blocking IO+IO multiplexing”的模型(事件驅(qū)動)來提高效率,采用多線程的方式,帶來的可能僅僅是編程上的簡單而已)。Alan Cox說過:”A computer is a state machine.Threads are for people who can’t program state machines.”(計算機(jī)是一臺狀態(tài)機(jī)。線程是給那些不能編寫狀態(tài)機(jī)程序的人準(zhǔn)備的)如果只有一塊CPU、一個執(zhí)行單元,那么確實如Alan Cox所說,按狀態(tài)機(jī)的思路去寫程序是最蔽謹(jǐn)高效的。
二:單線程服務(wù)器的常用編程模型
據(jù)我了解,在高性能的網(wǎng)絡(luò)程序中,使用得最為廣泛的恐怕要數(shù)”non-blocking IO + IO multiplexing”這種模型,即Reactor模式。
在”non-blocking IO + IO multiplexing”這種模型中,程序的基本結(jié)構(gòu)是一個事件循環(huán)(event loop),以事件驅(qū)動(event-driven)和事件回調(diào)的方式實現(xiàn)業(yè)務(wù)邏輯:
view plain copy
//代碼僅為示意,沒有完整考慮各種情況
while(!done)
{
int timeout_ms = max(1000, getNextTimedCallback());
int retval = poll(fds, nfds, timeout_ms);
if (retval0){
處理IO事件,回調(diào)用戶的IO event handler
}
}
}
這里select(2)/poll(2)有伸縮性方面的不足(描述符過多時,效率較低),Linux下可替換為epoll(4),其他操作系統(tǒng)也有對應(yīng)的高性能替代品。
Reactor模型的優(yōu)點很明顯,編程不難,效率也不錯。不僅可以用于讀寫socket,連接的建立(connect(2)/accept(2)),甚至DNS解析都可以用非阻塞方式進(jìn)行,以提高并發(fā)度和吞吐量(throughput),對于IO密集的應(yīng)用是個不錯的選擇。lighttpd就是這樣,它內(nèi)部的fdevent結(jié)構(gòu)十分精妙,值得學(xué)習(xí)。
基于事件驅(qū)動的編程模型也有其本質(zhì)的缺點,它要求事件回調(diào)函數(shù)必須是非阻塞的。對于涉及網(wǎng)絡(luò)IO的請求響應(yīng)式協(xié)議,它容易割裂業(yè)務(wù)邏輯,使其散布于多個回調(diào)函數(shù)之中,相對不容易理解和維護(hù)。
三:多線程服務(wù)器的常用編程模型
大概有這么幾種:
a:每個請求創(chuàng)建一個線程,使用阻塞式IO操作。在Java 1.4引人NIO之前,這是Java網(wǎng)絡(luò)編程的推薦做法??上炜s性不佳(請求太多時,操作系統(tǒng)創(chuàng)建不了這許多線程)。
b:使用線程池,同樣使用阻塞式IO操作。與第1種相比,這是提高性能的措施。
c:使用non-blocking IO + IO multiplexing。即Java NIO的方式。
d:Leader/Follower等高級模式。
在默認(rèn)情況下,我會使用第3種,即non-blocking IO + one loop per thread模式來編寫多線程C++網(wǎng)絡(luò)服務(wù)程序。
1:one loop per thread
此種模型下,程序里的每個IO線程有一個event loop,用于處理讀寫和定時事件(無論周期性的還是單次的)。代碼框架跟“單線程服務(wù)器的常用編程模型”一節(jié)中的一樣。
libev的作者說:
One loop per thread is usually a good model. Doing this is almost never wrong, some times a better-performance model exists, but it is always a good start.
這種方式的好處是:
a:線程數(shù)目基本固定,可以在程序啟動的時候設(shè)置,不會頻繁創(chuàng)建與銷毀。
b:可以很方便地在線程間調(diào)配負(fù)載。
c:IO事件發(fā)生的線程是固定的,同一個TCP連接不必考慮事件并發(fā)。
Event loop代表了線程的主循環(huán),需要讓哪個線程干活,就把timer或IO channel(如TCP連接)注冊到哪個線程的loop里即可:對實時性有要求的connection可以單獨用一個線程;數(shù)據(jù)量大的connection可以獨占一個線程,并把數(shù)據(jù)處理任務(wù)分?jǐn)偟搅韼讉€計算線程中(用線程池);其他次要的輔助性connections可以共享一個線程。
比如,在dbproxy中,一個線程用于專門處理客戶端發(fā)來的管理命令;一個線程用于處理客戶端發(fā)來的MySQL命令,而與后端數(shù)據(jù)庫通信執(zhí)行該命令時,是將該任務(wù)分配給所有事件線程處理的。
對于non-trivial(有一定規(guī)模)的服務(wù)端程序,一般會采用non-blocking IO + IO multiplexing,每個connection/acceptor都會注冊到某個event loop上,程序里有多個event loop,每個線程至多有一個event loop。
多線程程序?qū)vent loop提出了更高的要求,那就是“線程安全”。要允許一個線程往別的線程的loop里塞東西,這個loop必須得是線程安全的。
在dbproxy中,線程向其他線程分發(fā)任務(wù),是通過管道和隊列實現(xiàn)的。比如主線程accept到連接后,將表示該連接的結(jié)構(gòu)放入隊列,并向管道中寫入一個字節(jié)。計算線程在自己的event loop中注冊管道的讀事件,一旦有數(shù)據(jù)可讀,就嘗試從隊列中取任務(wù)。
2:線程池
不過,對于沒有IO而光有計算任務(wù)的線程,使用event loop有點浪費(fèi)??梢允褂靡环N補(bǔ)充方案,即用blocking queue實現(xiàn)的任務(wù)隊列:
view plain copy
typedef boost::functionFunctor;
BlockingQueue taskQueue; //線程安全的全局阻塞隊列
//計算線程
void workerThread()
{
while (running) //running變量是個全局標(biāo)志
{
Functor task = taskQueue.take(); //this blocks
task(); //在產(chǎn)品代碼中需要考慮異常處理
}
}
// 創(chuàng)建容量(并發(fā)數(shù))為N的線程池
int N = num_of_computing_threads;
for (int i = 0; i
{
create_thread(&workerThread); //啟動線程
}
//向任務(wù)隊列中追加任務(wù)
Foo foo; //Foo有calc()成員函數(shù)
boost::function task = boost::bind(&Foo::calc,&foo);
taskQueue.post(task);
除了任務(wù)隊列,還可以用BlockingQueue實現(xiàn)數(shù)據(jù)的生產(chǎn)者消費(fèi)者隊列,即T是數(shù)據(jù)類型而非函數(shù)對象,queue的消費(fèi)者從中拿到數(shù)據(jù)進(jìn)行處理。其實本質(zhì)上是一樣的。
3:總結(jié)
總結(jié)而言,我推薦的C++多線程服務(wù)端編程模式為:one (event) loop per thread + thread pool:
event loop用作IO multiplexing,配合non-blockingIO和定時器;
thread pool用來做計算,具體可以是任務(wù)隊列或生產(chǎn)者消費(fèi)者隊列。
以這種方式寫服務(wù)器程序,需要一個優(yōu)質(zhì)的基于Reactor模式的網(wǎng)絡(luò)庫來支撐,muduo正是這樣的網(wǎng)絡(luò)庫。比如dbproxy使用的是libevent。
程序里具體用幾個loop、線程池的大小等參數(shù)需要根據(jù)應(yīng)用來設(shè)定,基本的原則是“阻抗匹配”(解釋見下),使得CPU和IO都能高效地運(yùn)作。所謂阻抗匹配原則:
如果池中線程在執(zhí)行任務(wù)時,密集計算所占的時間比重為 P (0
以后我再講這個經(jīng)驗公式是怎么來的,先驗證邊界條件的正確性。
假設(shè) C = 8,P = 1.0,線程池的任務(wù)完全是密集計算,那么T = 8。只要 8 個活動線程就能讓 8 個 CPU 飽和,再多也沒用,因為 CPU 資源已經(jīng)耗光了。
假設(shè) C = 8,P = 0.5,線程池的任務(wù)有一半是計算,有一半等在 IO 上,那么T = 16??紤]操作系統(tǒng)能靈活合理地調(diào)度 sleeping/writing/running 線程,那么大概 16 個“50%繁忙的線程”能讓 8 個 CPU 忙個不停。啟動更多的線程并不能提高吞吐量,反而因為增加上下文切換的開銷而降低性能。
如果 P
另外,公式里的 C 不一定是 CPU 總數(shù),可以是“分配給這項任務(wù)的 CPU 數(shù)目”,比如在 8 核機(jī)器上分出 4 個核來做一項任務(wù),那么 C=4。
四:進(jìn)程間通信只用TCP
Linux下進(jìn)程間通信的方式有:匿名管道(pipe)、具名管道(FIFO)、POSIX消息隊列、共享內(nèi)存、信號(signals),以及Socket。同步原語有互斥器(mutex)、條件變量(condition variable)、讀寫鎖(reader-writer lock)、文件鎖(record locking)、信號量(semaphore)等等。
進(jìn)程間通信我首選Sockets(主要指TCP,我沒有用過UDP,也不考慮Unix domain協(xié)議)。其好處在于:
可以跨主機(jī),具有伸縮性。反正都是多進(jìn)程了,如果一臺機(jī)器的處理能力不夠,很自然地就能用多臺機(jī)器來處理。把進(jìn)程分散到同一局域網(wǎng)的多臺機(jī)器上,程序改改host:port配置就能繼續(xù)用;
TCP sockets和pipe都是操作文件描述符,用來收發(fā)字節(jié)流,都可以read/write/fcntl/select/poll等。不同的是,TCP是雙向的,Linux的pipe是單向的,進(jìn)程間雙向通信還得開兩個文件描述符,不方便;而且進(jìn)程要有父子關(guān)系才能用pipe,這些都限制了pipe的使用;
TCP port由一個進(jìn)程獨占,且進(jìn)程退出時操作系統(tǒng)會自動回收文件描述符。因此即使程序意外退出,也不會給系統(tǒng)留下垃圾,程序重啟之后能比較容易地恢復(fù),而不需要重啟操作系統(tǒng)(用跨進(jìn)程的mutex就有這個風(fēng)險);而且,port是獨占的,可以防止程序重復(fù)啟動,后面那個進(jìn)程搶不到port,自然就沒法初始化了,避免造成意料之外的結(jié)果;
與其他IPC相比,TCP協(xié)議的一個天生的好處是“可記錄、可重現(xiàn)”。tcpdump和Wireshark是解決兩個進(jìn)程間協(xié)議和狀態(tài)爭端的好幫手,也是性能(吞吐量、延遲)分析的利器。我們可以借此編寫分布式程序的自動化回歸測試。也可以用tcpcopy之類的工具進(jìn)行壓力測試。TCP還能跨語言,服務(wù)端和客戶端不必使用同一種語言。
分布式系統(tǒng)的軟件設(shè)計和功能劃分一般應(yīng)該以“進(jìn)程”為單位。從宏觀上看,一個分布式系統(tǒng)是由運(yùn)行在多臺機(jī)器上的多個進(jìn)程組成的,進(jìn)程之間采用TCP長連接通信。
使用TCP長連接的好處有兩點:一是容易定位分布式系統(tǒng)中的服務(wù)之間的依賴關(guān)系。只要在機(jī)器上運(yùn)行netstat -tpna|grep 就能立刻列出用到某服務(wù)的客戶端地址(Foreign Address列),然后在客戶端的機(jī)器上用netstat或lsof命令找出是哪個進(jìn)程發(fā)起的連接。TCP短連接和UDP則不具備這一特性。二是通過接收和發(fā)送隊列的長度也較容易定位網(wǎng)絡(luò)或程序故障。在正常運(yùn)行的時候,netstat打印的Recv-Q和Send-Q都應(yīng)該接近0,或者在0附近擺動。如果Recv-Q保持不變或持續(xù)增加,則通常意味著服務(wù)進(jìn)程的處理速度變慢,可能發(fā)生了死鎖或阻塞。如果Send-Q保持不變或持續(xù)增加,有可能是對方服務(wù)器太忙、來不及處理,也有可能是網(wǎng)絡(luò)中間某個路由器或交換機(jī)故障造成丟包,甚至對方服務(wù)器掉線,這些因素都可能表現(xiàn)為數(shù)據(jù)發(fā)送不出去。通過持續(xù)監(jiān)控Recv-Q和Send-Q就能及早預(yù)警性能或可用性故障。以下是服務(wù)端線程阻塞造成Recv-Q和客戶端Send-Q激增的例子:
view plain copy
$netstat -tn
Proto Recv-Q Send-Q Local Address Foreign
tcp.0.0.10:.0.0.10:39748 #服務(wù)端連接
tcp.0.0.10:.0.0.10:2023 #客戶端連接
tcp.0.0.10:22 10.0.0.4:55572
五:多線程服務(wù)器的適用場合
如果要在一臺多核機(jī)器上提供一種服務(wù)或執(zhí)行一個任務(wù),可用的模式有:
a:運(yùn)行一個單線程的進(jìn)程;
b:運(yùn)行一個多線程的進(jìn)程;
c:運(yùn)行多個單線程的進(jìn)程;
d:運(yùn)行多個多線程的進(jìn)程;
考慮這樣的場景:如果使用速率為50MB/s的數(shù)據(jù)壓縮庫,進(jìn)程創(chuàng)建銷毀的開銷是800微秒,線程創(chuàng)建銷毀的開銷是50微秒。如何執(zhí)行壓縮任務(wù)?
如果要偶爾壓縮1GB的文本文件,預(yù)計運(yùn)行時間是20s,那么起一個進(jìn)程去做是合理的,因為進(jìn)程啟動和銷毀的開銷遠(yuǎn)遠(yuǎn)小于實際任務(wù)的耗時。
如果要經(jīng)常壓縮500kB的文本數(shù)據(jù),預(yù)計運(yùn)行時間是10ms,那么每次都起進(jìn)程 似乎有點浪費(fèi)了,可以每次單獨起一個線程去做。
如果要頻繁壓縮10kB的文本數(shù)據(jù),預(yù)計運(yùn)行時間是200微秒,那么每次起線程似 乎也很浪費(fèi),不如直接在當(dāng)前線程搞定。也可以用一個線程池,每次把壓縮任務(wù)交給線程池,避免阻塞當(dāng)前線程(特別要避免阻塞IO線程)。
由此可見,多線程并不是萬靈丹(silver bullet)。
1:必須使用單線程的場合
據(jù)我所知,有兩種場合必須使用單線程:
a:程序可能會fork(2);
實際編程中,應(yīng)該保證只有單線程程序能進(jìn)行fork(2)。多線程程序不是不能調(diào)用fork(2),而是這么做會遇到很多麻煩:
fork一般不能在多線程程序中調(diào)用,因為Linux的fork只克隆當(dāng)前線程的thread of control,不可隆其他線程。fork之后,除了當(dāng)前線程之外,其他線程都消失了。
這就造成一種危險的局面。其他線程可能正好處于臨界區(qū)之內(nèi),持有了某個鎖,而它突然死亡,再也沒有機(jī)會去解鎖了。此時如果子進(jìn)程試圖再對同一個mutex加鎖,就會立即死鎖。因此,fork之后,子進(jìn)程就相當(dāng)于處于signal handler之中(因為不知道調(diào)用fork時,父進(jìn)程中的線程此時正在調(diào)用什么函數(shù),這和信號發(fā)生時的場景一樣),你不能調(diào)用線程安全的函數(shù)(除非它是可重入的),而只能調(diào)用異步信號安全的函數(shù)。比如,fork之后,子進(jìn)程不能調(diào)用:
malloc,因為malloc在訪問全局狀態(tài)時幾乎肯定會加鎖;
任何可能分配或釋放內(nèi)存的函數(shù),比如snprintf;
任何Pthreads函數(shù);
printf系列函數(shù),因為其他線程可能恰好持有stdout/stderr的鎖;
除了man 7 signal中明確列出的信號安全函數(shù)之外的任何函數(shù)。
因此,多線程中調(diào)用fork,唯一安全的做法是fork之后,立即調(diào)用exec執(zhí)行另一個程序,徹底隔斷子進(jìn)程與父進(jìn)程的聯(lián)系。
在多線程環(huán)境中調(diào)用fork,產(chǎn)生子進(jìn)程后。子進(jìn)程內(nèi)部只存在一個線程,也就是父進(jìn)程中調(diào)用fork的線程的副本。
使用fork創(chuàng)建子進(jìn)程時,子進(jìn)程通過繼承整個地址空間的副本,也從父進(jìn)程那里繼承了所有互斥量、讀寫鎖和條件變量的狀態(tài)。如果父進(jìn)程中的某個線程占有鎖,則子進(jìn)程同樣占有這些鎖。問題是子進(jìn)程并不包含占有鎖的線程的副本,所以子進(jìn)程沒有辦法知道它占有了哪些鎖,并且需要釋放哪些鎖。
盡管Pthread提供了pthread_atfork函數(shù)試圖繞過這樣的問題,但是這回使得代碼變得混亂。因此《Programming With Posix Threads》一書的作者說:”Avoid using fork in threaded code except where the child process will immediately exec a new program.”。
b:限制程序的CPU占用率;
這個很容易理解,比如在一個8核的服務(wù)器上,一個單線程程序即便發(fā)生busy-wait,占滿1個core,其CPU使用率也只有12.5%,在這種最壞的情況下,系統(tǒng)還是有87.5%的計算資源可供其他服務(wù)進(jìn)程使用。
linux 多核多線程的介紹就聊到這里吧,感謝你花時間閱讀本站內(nèi)容,更多關(guān)于linux 多核多線程,探索Linux多核多線程技術(shù),如何看懂《Linux多線程服務(wù)端編程的信息別忘了在本站進(jìn)行查找喔。
香港服務(wù)器選創(chuàng)新互聯(lián),2H2G首月10元開通。
創(chuàng)新互聯(lián)(www.cdcxhl.com)互聯(lián)網(wǎng)服務(wù)提供商,擁有超過10年的服務(wù)器租用、服務(wù)器托管、云服務(wù)器、虛擬主機(jī)、網(wǎng)站系統(tǒng)開發(fā)經(jīng)驗。專業(yè)提供云主機(jī)、虛擬主機(jī)、域名注冊、VPS主機(jī)、云服務(wù)器、香港云服務(wù)器、免備案服務(wù)器等。
分享文章:探索Linux多核多線程技術(shù)(linux多核多線程)
本文地址:http://m.fisionsoft.com.cn/article/cdoggcg.html


咨詢
建站咨詢
