參觀過工廠裝配線的人一定對流水線這個名字不陌生,半成品在皮帶機上流過一系列的流水線節點,每個節點以自己的方式進一步裝配,然后傳給下一節點?,F代的高性能CPU均采用了這種流水線設計,將計算任務分為取指,譯碼,執行,訪存,反饋等幾個階段。采用流水線設計的最大優點就是增加了系統吞吐量,例如,當第一條指令處于執行階段的時候,譯碼單元可以在翻譯第二條指令,而取指單元則可以去加載第三條指令。甚至,在某些節點還可以并行執行,例如,現代的MIMD多指令多數據的計算機,可以在同一時間執行多條指令,或者同時更新多個數據。
在Intel認識到頻率已成為CPU性能瓶頸之后,多核處理器應運而生。如今高性能程序設計的根本已經轉變為如何更充分的利用CPU資源,更快更多地處理數據,而Intel所開發的開源 TBB庫巧妙的利用了流水線這種思想,實現了一個自適應的高性能軟件流水線TBB::pipeline。本文將會以text_filter為例,簡單介紹pipeline的實現原理和一些關鍵技術點,以求達到拋磚引玉的效果。
介紹TBB::pipeline之前不得不先說一下TBB庫的引擎-task scheduler,它又被稱為TBB庫的心臟[Intel TBB nutshell book],是所有算法的基礎組件,用于驅動整個TBB庫的運作。例如,TBB庫所提供的parallel_for算法,里面就有task scheduler的蹤影,pipeline也不例外。
先看看parallel_for的實現:
template<typename Range, typename Body>
void parallel_for( const Range& range, const Body& body, const simple_partitioner& partitioner=simple_partitioner() ) {
internal::start_for<Range,Body,simple_partitioner>::run(range,body,partitioner);
}
再往下看:
template<typename Range, typename Body, typename Partitioner>
class start_for: public task {
Range my_range;
const Body my_body;
typename Partitioner::partition_type my_partition;
/*override*/ task* execute();
//! Constructor for root task.
start_for( const Range& range, const Body& body, Partitioner& partitioner ) :
...
}
可以看到,class start_for是從task繼承的,而這個class task,就是task scheduler中進行任務調度的基本元素---task,這也是TBB庫的靈魂所在。相對于原生線程庫(Raw Thread),例如POSIX thread(pthread),TBB庫可以看作是一種對多線程更高層面的封裝,它不再使用thread,而是以task作為基本的任務抽象,從而能夠更好的整合計算資源并最優化的調度任務。TBB庫的種種優點,如自動調整工作負荷,系統擴展性等,全是拜task scheduler所賜。TBB提供的每種算法都有其獨特的應用背景,如果算法不能滿足用戶的需求,那么完全可以以task為基類派生出新類,擴展出新的任務執行和調度算法。這種思想貫穿了TBB的整個設計,而TBB::pipeline,也是這種思想的典型體現。
TBB::pipeline的優點:
保證數據執行的順序
線程負載自動調節
更高的Cache命中率
系統擴展性
假如目前有這樣一項任務,對一個文件的內容進行分析,將每一個字符串的首字符改為大寫,然后寫入一個新文件里。
一個傳統的串行執行的解決方案是:
分別創建讀入和寫出文件
while (!EOF)
{
從文件讀入一個字符串
首字符轉化為大寫字符
寫入一個字符串到文件
}
關閉讀入和寫出文件的描述符
這么簡單的過程,還有可能通過TBB::Pipeline來提供性能嗎?我們來看看Pipeline的解決方案:
1.分別創建讀入和寫出文件描述符
2.建立三個task,分別是“從文件讀入一個字符串”,“首字符轉化為大寫字符”,“ 寫入一個字符串到文件”,其中需要指定“從文件讀入一個字符串”和“寫入一個字符串到文件”這兩個task為串行執行。(為什么要串行執行,請自行思考或者去看Intel TBB的nutshell book)
3.啟動Pipeline,讓Pipeline通過內建的task scheduler來調度這些task的運行。
用一個29MB的文件作為測試用例,在我的雙核機器上串行執行的速度是 0.527582秒,而Pipeline的速度是0.446161,對于更復雜的邏輯,Pipeline的性能還會顯著提升。性能提升的奧秘,就在于Pipeline能夠自動根據系統情況,以并行方式執行“首字符轉化為大寫字符”這個task。
具體的Pipeline的示例代碼和使用,可以去參考Intel TBB的nutshell book,這里想繼續深究一下:
1. 為什么Pipeline可以保證數據執行的順序?既然TBB歸根到底是通過多線程執行任務,為什么不會在讀入先后兩個字符串后,后讀入的字符串先被下一個task處理?Pipeline里是不是有一個類似于FIFO 先進先出隊列之類的東西?
2. 為什么Pipeline能夠自動地并行執行“首字符轉化為大寫字符”這個task?如果這個task被并行執行了,那么又怎么保證第一點?
3. Pipeline是怎么保證那些task被串行執行的。
4. 所謂“自動根據系統情況,進行任務調度”是怎么一回事?
這些既是問題,也是Pipeline中的關鍵技術點,有心的可以去研讀一下Pipeline的代碼先睹為快。
Intel TBB的nutshell book -- <Intel Threading Building Blocks –Outfitting C++ for Multi-Core Processor Parallelism>