• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            隨筆-159  評論-223  文章-30  trackbacks-0
               接上篇初始化與創建,本篇闡述Socket操作和銷毀兩部分的實現。

            Socket操作
               系統調用read(v)、write(v)是用戶空間讀寫socket的一種方法,為了弄清楚它們是怎么通過VFS將請求轉發到特定協議的實現,下面以read為例(write同理),并假定文件描述符對應的是IPv4 TCP類型的socket,來跟蹤它的執行流程。首先來看下sys_read的代碼,定義在fs/read_write.c中。
             1SYSCALL_DEFINE3(read, unsigned int, fd, char __user *, buf, size_t, count)
             2{
             3    struct file *file;
             4    ssize_t ret = -EBADF;
             5    int fput_needed;
             6
             7    file = fget_light(fd, &fput_needed);
             8    if (file) {
             9        loff_t pos = file_pos_read(file);
            10        ret = vfs_read(file, buf, count, &pos);
            11        
            12    }

            13
            14    return ret;
            15}
               先調用fget_light得到fd對應的file,再調用vfs_read。接著跟蹤vfs_read的代碼,定義在fs/read_write.c中。
             1ssize_t vfs_read(struct file *file, char __user *buf, size_t count, loff_t *pos)
             2{
             3    ssize_t ret;
             4    
             5    ret = rw_verify_area(READ, file, pos, count);
             6    if (ret >= 0{
             7        count = ret;
             8        if (file->f_op->read)
             9            ret = file->f_op->read(file, buf, count, pos);
            10        else
            11            ret = do_sync_read(file, buf, count, pos);
            12        
            13    }

            14
            15    return ret;
            16}
               在上篇Socket創建一節已知,因為sockfs_file_ops沒有定義read(即read指針為空),所以這兒實際調用了do_sync_read,繼續跟蹤它的代碼,定義在fs/read_write.c中。
             1ssize_t do_sync_read(struct file *filp, char __user *buf, size_t len, loff_t *ppos)
             2{
             3    struct iovec iov = { .iov_base = buf, .iov_len = len };
             4    struct kiocb kiocb;
             5    ssize_t ret;
             6
             7    
             8    for (;;) {
             9        ret = filp->f_op->aio_read(&kiocb, &iov, 1, kiocb.ki_pos);
            10        if (ret != -EIOCBRETRY)
            11            break;
            12        wait_on_retry_sync_kiocb(&kiocb);
            13    }

            14
            15    if (-EIOCBQUEUED == ret)
            16        ret = wait_on_sync_kiocb(&kiocb);
            17    *ppos = kiocb.ki_pos;
            18    return ret;
            19}
               顯而易見,這兒調用到了f_op->aio_read,使用異步讀來實現同步讀,若異步讀沒有完成,則調用wait_on_sync_kiocb等待。由上篇Socket創建一節可知sockfs_file_ops的aio_read設為sock_aio_read函數,定義在net/socket.c中,至此sys_read的實現完成了前一半(操作對象是file)而進入后一半(操作對象是socket),即socket層的實現。
               在socket層跟蹤sock_aio_read,可以得到最后調用的是sock->ops->recvmsg,由于socket類型為IPv4 TCP,因此sock->ops在socket創建過程中被設為inet_stream_ops,定義在net/ipv4/af_inet.c中。
            1const struct proto_ops inet_stream_ops = {
            2    .family    =  PF_INET,
            3    
            4    .release   =  inet_release,
            5    
            6    .recvmsg  =  sock_common_recvmsg,
            7    
            8}
            ;
               從上可知recvmsg設為sock_common_recvmsg,跟蹤它的代碼,定義在net/core/sock.c中。  
             1int sock_common_recvmsg(struct kiocb *iocb, struct socket *sock, struct msghdr *msg, size_t size, int flags)
             2{
             3    struct sock *sk = sock->sk;
             4    int addr_len = 0;
             5    int err;
             6
             7    err = sk->sk_prot->recvmsg(iocb, sk, msg, size, flags & MSG_DONTWAIT,flags & ~MSG_DONTWAIT, &addr_len);
             8    
             9    return err;
            10}
               struct sock表示套接字的網絡接口層,它的成員sk_prot表示網絡協議塊,在這它對應tcp_prot結構,定義在net/ipv4/tcp_ipv4.c中,由此可見進入到特定協議的實現。
            1struct proto tcp_prot = {
            2    .name            = "TCP",
            3    
            4    .close   =  tcp_close,
            5    
            6    .recvmsg  =  tcp_recvmsg,
            7    
            8}
            ;
               recvmsg設為tcp_recvmsg,至此跟蹤結束。對于sys_readv的實現,調用的是vfs_readv,后面的過程和sys_read相同,總結核心調用鏈如下圖:
               由此可知,sockfs_file_ops只須實現aio_read,就能支持普通和聚集兩種方式的讀操作。為了對比,這里也給出Berkeley Sockets API中recv的核心調用鏈如下圖:
               顯而易見,recv內部實現調用的是sys_recvfrom,它沒有經過VFS,而是先調用sock_lookup_light從fd得到socket,再調用sock_recvmsg,后面的流程和recv就是一樣的了。

            Socket銷毀
               Socket操作既可以調用文件IO,也可以調用Berkeley Sockets API。但銷毀不同,系統調用close是用戶空間銷毀socket的唯一方法,它定義在fs/open.c中。
             1SYSCALL_DEFINE1(close, unsigned int, fd)
             2{
             3    struct file * filp;
             4    struct files_struct *files = current->files;
             5    struct fdtable *fdt;
             6    int retval;
             7
             8    spin_lock(&files->file_lock);
             9    fdt = files_fdtable(files);
            10    
            11    filp = fdt->fd[fd];
            12    
            13    rcu_assign_pointer(fdt->fd[fd], NULL);
            14    FD_CLR(fd, fdt->close_on_exec);
            15    __put_unused_fd(files, fd);
            16    spin_unlock(&files->file_lock);
            17    retval = filp_close(filp, files);
            18    
            19}
               首先從fd獲取對應的file,若file非空則設置進程描述符數組對應項為空,并將fd從exec時關閉的文件描述符鏈表和打開的文件描述符鏈表中移除;最后調用filp_close,跟蹤它的代碼,定義在fs/open.c中。
             1int filp_close(struct file *filp, fl_owner_t id)
             2{
             3    int retval = 0;
             4
             5    if (!file_count(filp)) {
             6        printk(KERN_ERR "VFS: Close: file count is 0\n");
             7        return 0;
             8    }

             9
            10    if (filp->f_op && filp->f_op->flush)
            11        retval = filp->f_op->flush(filp, id);
            12
            13    dnotify_flush(filp, id);
            14    locks_remove_posix(filp, id);
            15    fput(filp);
            16    return retval;
            17}
               首先判斷file的引用計數,若為0則打印一個錯誤日志(說明這是一個bug,因為file已經被釋放)并返回;由于sockfs_file_ops中的flush沒有定義即為空,因此跳過;dnotify_flush用于釋放任何相關的dnotify(一種文件監控機制)資源,locks_remove_posix用于清除文件鎖相關的資源,由于socket對應的inode沒有使用文件鎖,因此它什么也沒做。最后調用fput來釋放file,定義在fs/file_table.c中。
            1void fput(struct file *file)
            2{
            3    if (atomic_long_dec_and_test(&file->f_count))
            4        __fput(file);
            5}
               先遞減引用計數,若為0則調用__fput釋放file,它會調用到sockfs_file_ops定義的release函數即sock_close,它是sock_release的包裝函數,sock_release定義在net/socket.c中。
             1void sock_release(struct socket *sock)
             2{
             3    if (sock->ops) {
             4        struct module *owner = sock->ops->owner;
             5
             6        sock->ops->release(sock);
             7        sock->ops = NULL;
             8        module_put(owner);
             9    }

            10    if (sock->fasync_list)
            11        printk(KERN_ERR "sock_release: fasync list not empty!\n");
            12
            13    percpu_sub(sockets_in_use, 1);
            14    if (!sock->file) {
            15        iput(SOCK_INODE(sock));
            16        return;
            17    }

            18    sock->file = NULL;
            19}
                      
               先調用ops->release即特定協議的釋放操作,對于IPv4 TCP,就是inet_stream_ops中定義的inet_release函數,它又會調用到tcp_prot中定義的close即tcp_close;對于關聯inode的釋放,這里要分2種情況:如果sock->file為空,就調用iput釋放,否則返回到__fput中,會調用dput釋放dentry,而dentry又關聯著inode,最終調用iput釋放inode;當最后一個iput被調用時,sockfs_ops中定義的sock_destroy_inode就會被調用,歸還由sock_alloc_inode分配的struct socket_alloc對象到SALB緩存中。總結核心調用鏈如下圖:
               
               在上篇初始化一節,我們已知sockfs文件系統被裝載,然而實際上沒有卸載它的方式。由于TCP/IP協議棧和sockfs被靜態編譯到內核中,而不是一個內核模塊。因此沒必要提供一個卸載函數,sockfs偽文件系統在啟動到關閉期間,總是被裝載著的。
            posted on 2015-05-03 16:55 春秋十二月 閱讀(5268) 評論(0)  編輯 收藏 引用 所屬分類: Network
            国产精品va久久久久久久| 久久天天婷婷五月俺也去| 亚洲欧美日韩精品久久亚洲区| 色综合久久久久| 精品免费久久久久国产一区| 久久久久99精品成人片三人毛片 | 久久九九全国免费| 久久久无码一区二区三区| av无码久久久久久不卡网站| 91超碰碰碰碰久久久久久综合| 热久久国产欧美一区二区精品| 久久精品国产AV一区二区三区| 亚洲中文字幕无码久久2017 | 欧美伊人久久大香线蕉综合69| 国产综合精品久久亚洲| 狠狠精品干练久久久无码中文字幕| 精品免费久久久久国产一区| 亚洲精品综合久久| 中文字幕热久久久久久久| 乱亲女H秽乱长久久久| 亚洲国产成人精品91久久久 | 国产69精品久久久久99| 久久精品无码一区二区app| 亚洲精品国精品久久99热| 久久精品国产AV一区二区三区 | 久久天天躁狠狠躁夜夜不卡| 亚洲欧美日韩久久精品第一区| 久久不见久久见免费影院www日本| 久久av高潮av无码av喷吹| 久久天天婷婷五月俺也去| 久久久久亚洲av无码专区喷水 | 精品无码人妻久久久久久| 日产精品久久久久久久| 国产成人香蕉久久久久| 亚洲精品久久久www| 国产亚洲综合久久系列| 香蕉99久久国产综合精品宅男自| 蜜臀久久99精品久久久久久小说| 久久精品无码一区二区app| 无码人妻精品一区二区三区久久| 精品无码久久久久久国产|