HTTP Serverをfork,thread,pollで実装
先週の続き
15章以降のhttpサーバーはacceptする毎にforkする素朴な実装となっている。ApacheやNginxといった実際に商用レベルで利用されるサーバーはより効率的で並列処理可能な実装であるとのことだったので調べた。
結果として、知りたいことが正しく記述してある記事を見つけたので、これを真似して作成したhttpサーバーを改造してみる。
Zerohttpd
やはりインターネット上に良質なリソースはいくらでもあるので、いかに発見して利用するかが学習効率につながるよなーと。知の高速道路というか整備されていない未舗装路をなんとか乗りこなしていきたい。
1. Iterative
そもそもforkしない実装なので、同時にさばけるコネクションは1つだけ。
ふつうのLinuxプログラミングのhttpd2.cからforkを取り除いて作成。
static void
server_main(int server_fd, char *docroot)
{
for (;;) {
struct sockaddr_storage addr;
socklen_t addrlen = sizeof addr;
int sock;
int pid;
sock = accept(server_fd, (struct sockaddr*)&addr, &addrlen);
if (sock < 0) log_exit("accept(2) failed: %s", strerror(errno));
FILE *inf = fdopen(sock, "r");
FILE *outf = fdopen(sock, "w");
service(inf, outf, docroot);
close(sock);
}
}
2. Forking
httpd2.cそのもの
Iterativeと比較すると、accept後にforkが入る
他にもSIGCHLDのハンドリングが必要になってくる。
static void
server_main(int server_fd, char *docroot)
{
for (;;) {
struct sockaddr_storage addr;
socklen_t addrlen = sizeof addr;
int sock;
int pid;
sock = accept(server_fd, (struct sockaddr*)&addr, &addrlen);
if (sock < 0) log_exit("accept(2) failed: %s", strerror(errno));
pid = fork();
if (pid < 0) exit(3);
if (pid == 0) {
FILE *inf = fdopen(sock, "r");
FILE *outf = fdopen(sock, "w");
service(inf, outf, docroot);
exit(0);
}
close(sock);
}
}
3. Preforked
accept以前にさらにforkしておくため、最初に起動した親プロセス、acceptする子プロセス、accept後にforkしてリクエストをハンドリングする孫プロセス、となる。
親プロセスは以下create_child内で子プロセスをforkした後はpause()に入って何もしない(シグナルハンドリングはする)、子プロセスはloopでacceptする、孫プロセスは1リクエスト処理したらexit。
int
main(int argc, char *argv[])
{
//中略
for(int i=0; i < PREFORK_CHILDREN; i++)
pids[i] = create_child(i, server_fd, docroot);
for(;;)
pause();
}
static pid_t
create_child(int index, int listening_socket, char *docroot) {
pid_t pid;
pid = fork();
if (pid < 0) exit(3);
else if (pid > 0)
return (pid);
printf("Server %d(pid: %ld) starting\n", index, (long)getpid());
server_main(listening_socket, docroot);
}
元記事のパフォーマンスを見ると、Preforkにすると単純なForkと比べてconcurrency 1000で5倍くらいのreq/secが出るらしい。 またApache MPM preforkがこの実装となっている。
- The Thundering Herd
ざっくり理解したつもりで説明すると、多数のプロセス/スレッドがAcceptで同じイベントを待っている状態でリクエストが来ると、全てのプロセス/スレッドを一旦Wakeして1つ選んで他はBlockに戻るのがオーバーヘッドになるらしい。このPreforkの実装は特に何も気にしていないので、発生すると思いきや、LinuxではThisやThisの通り影響ないとのこと。
4. Threaded
スレッドを使うが、流れはForkと同じとなる。
acceptしたらpthread_createでスレッドを作成する。子スレッドには関数ポインタserviceを渡して実行し、親スレッドはloopしてacceptでBlockされてリクエストを待つ。
static void
server_main(int server_fd, char *docroot)
{
for (;;) {
struct sockaddr_storage addr;
socklen_t addrlen = sizeof addr;
int sock;
pthread_t tid;
struct service_args args;
args.docroot = docroot;
sock = accept(server_fd, (struct sockaddr*)&addr, &addrlen);
if (sock < 0) log_exit("accept(2) failed: %s", strerror(errno));
args.inf = fdopen(sock, "r");
args.outf = fdopen(sock, "w");
pthread_create(&tid, NULL, &service, (void *)&args);
}
}
serviceをポインタに変更し、引数も構造体で渡す(のが正解なのかはわからないが、StackOverflowにあった)。
struct service_args {
FILE *inf;
FILE *outf;
char *docroot;
};
static void
*service(void *arguments)
{
struct HTTPRequest *req;
struct service_args *args = (struct service_args *)arguments;
FILE *in = args->inf;
FILE *out = args->outf;
char *docroot = args->docroot;
pthread_detach(pthread_self());
req = read_request(in);
respond_to(req, out, docroot);
free_request(req);
fclose(in);
fclose(out);
return(NULL);
}
pthread_detach()はpthread_join()を呼ばなくてもteminate時にリソース開放可能にする。pthread_join()はwait()相当だと理解した。
FILEストリームをクローズして、NULLを返して関数終わり=thread終わり となる。
パフォーマンスに関してはForkには勝るがPreforkには劣る。Forkとの差はプロセス生成とスレッド生成のオーバーヘッドの差ということだと思う。
5. Prethreaded
mainでTHREADS_COUNT分creat_threadを呼ぶ。
server_fdはGlobalになっている
int
main(int argc, char *argv[])
{
//略
server_fd = listen_socket(port);
//略
for (int i = 0; i < THREADS_COUNT; ++i) {
create_thread(i, docroot);
}
for(;;)
pause();
}
create_threadはpthread_createにserver_main渡して呼ぶだけ
static void
create_thread(int index, char *docroot) {
pthread_create(&threads[index], NULL, &server_main, NULL);
}
server_mainではaccept->serviceをloopするだけ
static void
*server_main(void *targ)
{
char *docroot = (char *) targ;
for (;;) {
struct sockaddr_storage addr;
socklen_t addrlen = sizeof addr;
int sock;
pthread_mutex_lock(&mlock);
sock = accept(server_fd, (struct sockaddr*)&addr, &addrlen);
if (sock < 0) log_exit("accept(2) failed: %s", strerror(errno));
pthread_mutex_unlock(&mlock);
FILE *inf = fdopen(sock, "r");
FILE *outf = fdopen(sock, "w");
service(inf, outf, docroot);
}
}
pthread_mutex_lockを呼ぶことで、1つのスレッドだけがmutex(と言われても実態は何なんだ…)を獲得し、以下のコードへ進む。つまり、acceptでblockされるのは1スレッドだけになり、Thundering Herdを回避することができる。unlockを呼ぶことで、他のスレッドがmutexを獲得可能になり、acceptを呼ぶことができるようになる。
Apache MPM workerではForkした複数の子プロセスが、それぞれ複数スレッドを作成する。
パフォーマンス(req/sec)としては、Forkと比較してメモリをshareするので軽量になり、スレッド作成はフォークよりもオーバーヘッドが少ない。
単純なThreadと比較すると40%性能向上がみられるが、Preforkと比較すると同程度となる。これはLinuxにおいてプロセスとスレッドは同じようにスケジュールされるので、オーバーヘッドが大差ないということらしい。差分があるのはスレッド/プロセスの新規作成時となる。ConcurrencyにおいてはPrethredに分があり、元記事の条件だとPreforkは5000concurentまで性能を維持したのに対し、Prethredは11000concurentまで維持できた。
6. Poll
これまでの並行処理はプロセス/スレッドのスケジュールにオーバーヘッドがある。そこで1つのプロセス/スレッドで処理したらよいというアイデアをpoll(),epoll_wait()で実現する。 poll()にソケットがファイルディスクリプタを渡すとI/O Readyになったことが判定できる。このときread/writeはブロックされない。
socketはnon-blockingに設定する。
sock = socket(ai->ai_family, ai->ai_socktype|SOCK_NONBLOCK, ai->ai_protocol);
listenしたファイルディスクリプタをadd_to_poll_fd_listでpollfd構造体に追加
server_fd = listen_socket(port);
if (!debug_mode) {
openlog(SERVER_NAME, LOG_PID|LOG_NDELAY, LOG_DAEMON);
become_daemon();
}
add_to_poll_fd_list(server_fd, POLLIN);
server_main(server_fd, docroot);
struct pollfd poll_fds[POLL_FDS_SZ];
nfds_t poll_nfds;
void add_to_poll_fd_list(int fd, short int events) {
poll_fds[poll_nfds].fd = fd;
poll_fds[poll_nfds].events = events;
poll_nfds++;
}
server_mainではpollのloopを実行する。
pollfdsに追加したserver_fdがreadableの間はacceptを繰り返し、pollfdsに追加する。pollは渡されたfdが一つでもI/O可能な場合returnする。
server_fdがreadableの場合、acceptを呼ぶ。accept<0の場合は新たなコネクションはないのでbreakする。(socketがnon-blockingのためacceptでブロックされない)
readableなpollfdsの内、server_fd以外はelseで処理するfile streamを開いてservice()を呼ぶことで、clientにレスポンスを返す。(pollでread可能であることは保証されるが、その後のwriteも可能であるかはわからないはず。本当はwriteもpollすべきなんだろうけど簡単のため省略)
こちらを参考に実装した。
static void
server_main(int server_fd, char *docroot)
{
int poll_ret;
int sock;
struct sockaddr_storage addr;
socklen_t addrlen = sizeof addr;
for (;;) {
poll_ret = poll(poll_fds, poll_nfds, -1);
if (poll_ret < 0)
log_exit("poll() failed");
for (int i = 0; i < poll_nfds; i++) {
if (poll_fds[i].revents == 0)
continue;
if (poll_fds[i].fd == server_fd) {
printf("server_fd readable: %d\n", server_fd);
for (;;) {
sock = accept(server_fd, (struct sockaddr*)&addr, &addrlen);
if (sock < 0) {
if (errno != EWOULDBLOCK) {
log_exit("accept() failed");
}
//all connection received
break;
}
printf("accept client sock: %d\n", sock);
add_to_poll_fd_list(sock, POLLIN);
}
} else {
printf("sock readable: %d\n", poll_fds[i].fd);
FILE *inf = fdopen(poll_fds[i].fd, "r");
FILE *outf = fdopen(poll_fds[i].fd, "w");
service(inf, outf, docroot);
remove_from_poll_fd_list(poll_fds[i].fd);
close(sock);
}
}
printf("poll_nfds: %d\n", poll_nfds);
}
}
元記事の表ではパフォーマンスはprefork,prethreadに劣っているように見えるが、pollはシングルプロセスでより多くの並行処理が可能となっている。
pollのボトルネックとしては、関数呼び出しのたびにpollfdsがkernel spaceにコピーされることと、pollfdsのどのファイルディスクリプタがI/O可能になったのか、要素をすべてイテレートして確認しなければならないことである。つまり、fd数に対して線形に処理が増えるので、並行したコネクションが増えるほど時間がかかる。
7. Epoll
epollもイベントベースのアーキテクチャであり、pollと基本的には変わらない。pollで問題となったpollfdsの肥大化に対応する。
epoll_fdとevents配列を定義
int epoll_fd;
#define MAX_EVENTS 32000
struct epoll_event events[MAX_EVENTS];
server_mainの前にepoll_create1でepoll_fdを作成する。
server_fdはadd_to_epoll_fd_listに追加する。
server_fd = listen_socket(port);
if (!debug_mode) {
openlog(SERVER_NAME, LOG_PID|LOG_NDELAY, LOG_DAEMON);
become_daemon();
}
epoll_fd = epoll_create1(0);
if (epoll_fd < 0)
fatal_error("epoll_create1()");
add_to_epoll_fd_list(server_fd, EPOLLIN);
server_main(server_fd, docroot);
add_to_epoll_fd_listではepoll_ctlで渡されたfdをモニター対象に追加している。
void add_to_epoll_fd_list(int fd, uint32_t ep_events) {
struct epoll_event event;
event.data.fd = fd;
event.events = ep_events;
if (epoll_ctl(epoll_fd, EPOLL_CTL_ADD, fd, &event))
fatal_error("add epoll_ctl()");
}
server_mainではpoll()の代わりにepoll_wait()を呼ぶ。epoll_wait()は引数のevents配列にI/O可能になったディスクリプタの情報を入れる。return valueはeventsの要素数になる。そのためその後のloopでは全てのディスクリプタが処理可能となり、無駄なloopを減らすことができる。
static void
server_main(int server_fd, char *docroot)
{
int epoll_ret;
int sock;
struct sockaddr_storage addr;
socklen_t addrlen = sizeof addr;
for (;;) {
epoll_ret = epoll_wait(epoll_fd, events, MAX_EVENTS, -1);
if (epoll_ret < 0)
log_exit("epoll_wait() failed");
for (int i = 0; i < epoll_ret; i++) {
if (events[i].events == 0)
continue;
if (events[i].data.fd == server_fd) {
//accept()など、pollと処理は変わらないので略
} else {
//service()など
}
}
printf("epoll_ret: %d\n", epoll_ret);
}
}
パフォーマンスをprethreadと比較すると、11000concurrentまでは拮抗するが、15000まで増やすとepollの方がパフォーマンスを維持することができる。OSのオーバーヘッドが少ないため、非常に多いconcurrent requestsではepollの方がスケールするとのこと。
その他
NginxやIRCではプロセスやスレッドをいくつか作成した後にepollする実装があるらしい。
kqueue,io_uringでの実装もできるよ!とのこと