c++ - read - ifstream



為什麼讀取stdin中的行比C++慢得多? (7)

以下代碼對於我來說比目前發布的其他代碼更快:(Visual Studio 2013,64位,500 MB文件,行長度均勻地位於[0,1000))。

const int buffer_size = 500 * 1024;  // Too large/small buffer is not good.
std::vector<char> buffer(buffer_size);
int size;
while ((size = fread(buffer.data(), sizeof(char), buffer_size, stdin)) > 0) {
    line_count += count_if(buffer.begin(), buffer.begin() + size, [](char ch) { return ch == '\n'; });
}

它比我們的所有Python嘗試都多出2倍。

https://code.i-harness.com

我想比較使用Python和C ++的stdin字符串輸入的讀取行,並且很驚訝地發現我的C ++代碼比等效的Python代碼慢了一個數量級。 由於我的C ++很生疏,而且我還不是專家蟒蛇,所以請告訴我,如果我做錯了什麼或者我誤解了某些東西。

(TLDR答案:包括聲明: cin.sync_with_stdio(false)或者只是使用fgets代替。

TLDR結果:一直滾動到我的問題的底部並查看表格。)

C ++代碼:

#include <iostream>
#include <time.h>

using namespace std;

int main() {
    string input_line;
    long line_count = 0;
    time_t start = time(NULL);
    int sec;
    int lps;

    while (cin) {
        getline(cin, input_line);
        if (!cin.eof())
            line_count++;
    };

    sec = (int) time(NULL) - start;
    cerr << "Read " << line_count << " lines in " << sec << " seconds.";
    if (sec > 0) {
        lps = line_count / sec;
        cerr << " LPS: " << lps << endl;
    } else
        cerr << endl;
    return 0;
}

// Compiled with:
// g++ -O3 -o readline_test_cpp foo.cpp

Python等效:

#!/usr/bin/env python
import time
import sys

count = 0
start = time.time()

for line in  sys.stdin:
    count += 1

delta_sec = int(time.time() - start_time)
if delta_sec >= 0:
    lines_per_sec = int(round(count/delta_sec))
    print("Read {0} lines in {1} seconds. LPS: {2}".format(count, delta_sec,
       lines_per_sec))

這是我的結果:

$ cat test_lines | ./readline_test_cpp
Read 5570000 lines in 9 seconds. LPS: 618889

$cat test_lines | ./readline_test.py
Read 5570000 lines in 1 seconds. LPS: 5570000

編輯: 我應該注意到,我在Mac OS X v10.6.8(Snow Leopard)和Linux 2.6.32(Red Hat Linux 6.2)下都嘗試了這一點。 前者是一台MacBook Pro,後者則是一台非常強大的服務器,並不是說這樣太貼切。

編輯2 :( 刪除此編輯,不再適用)

$ for i in {1..5}; do echo "Test run $i at `date`"; echo -n "CPP:"; cat test_lines | ./readline_test_cpp ; echo -n "Python:"; cat test_lines | ./readline_test.py ; done
Test run 1 at Mon Feb 20 21:29:28 EST 2012
CPP:   Read 5570001 lines in 9 seconds. LPS: 618889
Python:Read 5570000 lines in 1 seconds. LPS: 5570000
Test run 2 at Mon Feb 20 21:29:39 EST 2012
CPP:   Read 5570001 lines in 9 seconds. LPS: 618889
Python:Read 5570000 lines in 1 seconds. LPS: 5570000
Test run 3 at Mon Feb 20 21:29:50 EST 2012
CPP:   Read 5570001 lines in 9 seconds. LPS: 618889
Python:Read 5570000 lines in 1 seconds. LPS: 5570000
Test run 4 at Mon Feb 20 21:30:01 EST 2012
CPP:   Read 5570001 lines in 9 seconds. LPS: 618889
Python:Read 5570000 lines in 1 seconds. LPS: 5570000
Test run 5 at Mon Feb 20 21:30:11 EST 2012
CPP:   Read 5570001 lines in 10 seconds. LPS: 557000
Python:Read 5570000 lines in  1 seconds. LPS: 5570000

編輯3:

好的,我嘗試了JN的建議,試圖讓Python存儲行讀取:但它對python的速度沒有任何影響。

我也嘗試了JN的建議, scanf轉換為char數組,而不是將getline轉換為std::string 。 答對了! 這導致Python和C ++的性能相當。 (我的輸入數據是3,333,333個LPS,順便說一句,每個都只有三個字段的短行,通常約20個字符寬,有時甚至更多)。

碼:

char input_a[512];
char input_b[32];
char input_c[512];
while(scanf("%s %s %s\n", input_a, input_b, input_c) != EOF) {
    line_count++;
};

速度:

$ cat test_lines | ./readline_test_cpp2
Read 10000000 lines in 3 seconds. LPS: 3333333
$ cat test_lines | ./readline_test2.py
Read 10000000 lines in 3 seconds. LPS: 3333333

(是的,我跑了幾次。)所以,我想我現在將使用scanf而不是getline 。 但是,如果人們認為std::string / getline這種性能是典型和合理的,我仍然很好奇。

編輯4(是:最終編輯/解決方案):

添加:

cin.sync_with_stdio(false);

在我上面的原始while循環之上立即產生比Python運行得更快的代碼。

新的性能比較 (這是在我的2011年MacBook Pro上),分別使用原始代碼,禁用同步的原始代碼和原始Python代碼,在具有20M行文本的文件上進行比較。 是的,我跑了幾次,以消除磁盤緩存混淆。

$ /usr/bin/time cat test_lines_double | ./readline_test_cpp
       33.30 real         0.04 user         0.74 sys
Read 20000001 lines in 33 seconds. LPS: 606060
$ /usr/bin/time cat test_lines_double | ./readline_test_cpp1b
        3.79 real         0.01 user         0.50 sys
Read 20000000 lines in 4 seconds. LPS: 5000000
$ /usr/bin/time cat test_lines_double | ./readline_test.py
        6.88 real         0.01 user         0.38 sys
Read 20000000 lines in 6 seconds. LPS: 3333333

感謝@Vaughn Cato的回答! 任何精心製作的人們都可以做出很好的引用,人們可以指出為什麼這種同步發生,它的意思,什麼時候有用,什麼時候可以禁用,將會被後人所高度讚賞。 :-)

編輯5 /更好的解決方案:

正如Gandalf The Gray所建議的那樣, scanfscanf或非同步cin方法更快。 我還了解到scanfgets都是不安全的,並且由於潛在的緩衝區溢出而不應該被使用。 所以,我用fgets寫了這個迭代,這是獲得更安全的選擇。 下面是我的同伴新手的相關內容:

char input_line[MAX_LINE];
char *result;

//<snip>

while((result = fgets(input_line, MAX_LINE, stdin )) != NULL)
    line_count++;
if (ferror(stdin))
    perror("Error reading stdin.");

現在,下面是在具有非常快的磁盤的快速服務器上使用更大文件(100M行;〜3.4 GB)的結果,比較Python代碼,非同步cinfgets方法,以及與wc實用程序進行比較。 [ scanf版本分割錯誤,我不想排除故障。]:

$ /usr/bin/time cat temp_big_file | readline_test.py
0.03user 2.04system 0:28.06elapsed 7%CPU (0avgtext+0avgdata 2464maxresident)k
0inputs+0outputs (0major+182minor)pagefaults 0swaps
Read 100000000 lines in 28 seconds. LPS: 3571428

$ /usr/bin/time cat temp_big_file | readline_test_unsync_cin
0.03user 1.64system 0:08.10elapsed 20%CPU (0avgtext+0avgdata 2464maxresident)k
0inputs+0outputs (0major+182minor)pagefaults 0swaps
Read 100000000 lines in 8 seconds. LPS: 12500000

$ /usr/bin/time cat temp_big_file | readline_test_fgets
0.00user 0.93system 0:07.01elapsed 13%CPU (0avgtext+0avgdata 2448maxresident)k
0inputs+0outputs (0major+181minor)pagefaults 0swaps
Read 100000000 lines in 7 seconds. LPS: 14285714

$ /usr/bin/time cat temp_big_file | wc -l
0.01user 1.34system 0:01.83elapsed 74%CPU (0avgtext+0avgdata 2464maxresident)k
0inputs+0outputs (0major+182minor)pagefaults 0swaps
100000000


Recap (lines per second):
python:         3,571,428
cin (no sync): 12,500,000
fgets:         14,285,714
wc:            54,644,808

正如你所看到的, fgets比較好,但離wc性能還差得很遠; 我很確定這是由於wc檢查每個字符而沒有任何內存複製的事實。 我懷疑在這一點上,代碼的其他部分將成為瓶頸,所以即使可能的話,我也不認為優化到這個水平甚至是值得的(因為畢竟我實際上需要存儲讀取線在記憶中)。

還要注意,使用char *緩衝區和fgets與非同步cin進行字符串的小折衷是,後者可以讀取任意長度的行,而前者要求將輸入限制為某個有限數字。 在實踐中,讀取大多數基於行的輸入文件可能不是問題,因為緩衝區可以設置為非常大的值,而不會被有效輸入超出。

這是教育。 感謝大家的意見和建議。

編輯6:

正如JF Sebastian在下面的評論中所建議的那樣,GNU wc實用程序使用plain C read() (在safe-read.c包裝器中)每次讀取16k字節的塊併計算新行。 下面是一個基於JF代碼的Python等價物(只顯示替代Python for循環的相關代碼片段:

BUFFER_SIZE = 16384
count = sum(chunk.count('\n') for chunk in iter(partial(sys.stdin.read, BUFFER_SIZE), ''))

這個版本的性能非常快(當然,仍然比原始的C wc工具慢):

$ /usr/bin/time cat temp_big_file | readline_test3.py
0.01user 1.16system 0:04.74elapsed 24%CPU (0avgtext+0avgdata 2448maxresident)k
0inputs+0outputs (0major+181minor)pagefaults 0swaps
Read 100000000 lines in 4.7275 seconds. LPS: 21152829

同樣,對於我來說,將C ++ fgets / cin和第一個Python代碼與wc -l以及另一個Python代碼片段進行比較對我來說有點愚蠢,因為後兩者實際上並不存儲讀取的行,但是只需要換行符。 不過,探索所有不同的實現並考慮性能影響很有意思。 再次感謝!

編輯7:微小的基準附錄和回顧

為了完整起見,我認為我會用原始(同步的)C ++代碼更新同一個文件夾中相同文件的讀取速度。 再次,這是一個快速磁盤上的100M行文件。 這裡是完整的表格:

Implementation      Lines per second
python (default)           3,571,428
cin (default/naive)          819,672
cin (no sync)             12,500,000
fgets                     14,285,714
wc (not fair comparison)  54,644,808

出於好奇,我看了一下發生了什麼,我在每次測試中都使用了dtruss/strace

C ++

./a.out < in
Saw 6512403 lines in 8 seconds.  Crunch speed: 814050

syscalls sudo dtruss -c ./a.out < in

CALL                                        COUNT
__mac_syscall                                   1
<snip>
open                                            6
pread                                           8
mprotect                                       17
mmap                                           22
stat64                                         30
read_nocancel                               25958

蟒蛇

./a.py < in
Read 6512402 lines in 1 seconds. LPS: 6512402

syscalls sudo dtruss -c ./a.py < in

CALL                                        COUNT
__mac_syscall                                   1
<snip>
open                                            5
pread                                           8
mprotect                                       17
mmap                                           21
stat64                                         29

如果您不關心文件加載時間或者您正在加載小文本文件, getline ,流操作符scanf可以很方便。 但是,如果性能是你關心的,那麼你應該將整個文件緩衝到內存中(假設它適合)。

這是一個例子:

//open file in binary mode
std::fstream file( filename, std::ios::in|::std::ios::binary );
if( !file ) return NULL;

//read the size...
file.seekg(0, std::ios::end);
size_t length = (size_t)file.tellg();
file.seekg(0, std::ios::beg);

//read into memory buffer, then close it.
char *filebuf = new char[length+1];
file.read(filebuf, length);
filebuf[length] = '\0'; //make it null-terminated
file.close();

如果你願意,你可以圍繞緩衝區打包一個流,以便更方便地訪問,如下所示:

std::istrstream header(&buffer[0], length);

另外,如果您在控製文件,請考慮使用平面二進制數據格式而不是文本。 讀取和寫入更可靠,因為您不必處理空白的所有含糊之處。 分析也更小,速度更快。


我在Mac上使用g ++在計算機上複製了原始結果。

while循環之前將以下語句添加到C ++版本,使其與Python版本內聯:

std::ios_base::sync_with_stdio(false);
char buffer[1048576];
std::cin.rdbuf()->pubsetbuf(buffer, sizeof(buffer));

sync_with_stdio將速度提高到2秒,並將較大的緩衝區設置為1秒。


答案的第一個元素: <iostream>很慢。 該死的很慢。 如下所示,我用scanf獲得了巨大的性能提升,但仍然比Python慢​​兩倍。

#include <iostream>
#include <time.h>
#include <cstdio>

using namespace std;

int main() {
    char buffer[10000];
    long line_count = 0;
    time_t start = time(NULL);
    int sec;
    int lps;

    int read = 1;
    while(read > 0) {
        read = scanf("%s", buffer);
        line_count++;
    };
    sec = (int) time(NULL) - start;
    line_count--;
    cerr << "Saw " << line_count << " lines in " << sec << " seconds." ;
    if (sec > 0) {
        lps = line_count / sec;
        cerr << "  Crunch speed: " << lps << endl;
    } 
    else
        cerr << endl;
    return 0;
}

那麼,我發現在你的第二個解決方案中,你從cin切換到scanf ,這是我準備給你的第一個建議(cin is sloooooooooooow)。 現在,如果你從scanf切換到fgets ,你會看到性能的另一個提升: fgets是字符串輸入最快的C ++函數。

順便說一句,不知道那個同步的事情,很好。 但你仍然應該嘗試fgets


默認情況下, cin與stdio同步,這會導致它避免任何輸入緩衝。 如果您將其添加到主體的頂部,您應該看到更好的性能:

std::ios_base::sync_with_stdio(false);

通常,當緩衝輸入流時,不會一次讀取一個字符,而是以較大的塊讀取流。 這減少了系統調用的數量,這通常相對昂貴。 但是,由於基於FILE*stdioiostreams通常具有單獨的實現並因此具有單獨的緩衝區,因此如果兩者一起使用,則可能會導致問題。 例如:

int myvalue1;
cin >> myvalue1;
int myvalue2;
scanf("%d",&myvalue2);

如果cin讀取的輸入比實際需要的多,那麼第二個整數值將不可用於scanf函數,該函數具有自己的獨立緩衝區。 這會導致意想不到的結果。

為了避免這種情況,默認情況下,流與stdio同步。 實現這一點的一種常見方式是讓cin根據需要使用stdio函數逐個讀取每個字符。 不幸的是,這會帶來很多開銷。 對於少量的輸入,這不是一個大問題,但是當你閱讀數百萬行代碼時,性能損失很大。

幸運的是,如果您知道自己在做什麼,庫設計人員決定也應該禁用此功能以提高性能,因此他們提供了sync_with_stdio方法。





getline