青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品

woaidongmao

文章均收錄自他人博客,但不喜標題前加-[轉貼],因其丑陋,見諒!~
隨筆 - 1469, 文章 - 0, 評論 - 661, 引用 - 0
數據加載中……

C++的詞法分析器

 

[lexical_analyzer.h]

#ifndef LEXICAL_ANALYZER_H
#define LEXICAL_ANALYZER_H

enum lexical_status
{
    status_success,
    status_eof,
    status_invalid_char,
    status_unknown = -1,
};

enum token_category
{
    token_error,
    token_keyword,
    token_identifier,
    token_number,
    token_char,
    token_string,
    token_operator,
    token_punctuator,
};

struct token
{

    token_category category;
    std::string value;
};

class lexical_analyzer
{
public:
    explicit lexical_analyzer(std::istream& ifs);
    lexical_status get_token(token& t);
    int current_line() const;
private:
    bool filter_space();
    bool filter_comment();
    std::string get_hex_string();
    std::string get_digital_string();
    std::string get_string(char delimiter);
    bool is_keyword(const std::string& str);
    int get_char();
    int peek_char();
    void putback(char ch);
    void skip_char();
private:
    std::istream* m_pstream;
    int m_line;
};

inline lexical_analyzer::lexical_analyzer(std::istream& ifs)
    :m_pstream(&ifs), m_line(1)
{
}

inline int lexical_analyzer::current_line() const
{
    return m_line;
}

inline int lexical_analyzer::peek_char()
{
    return m_pstream->peek();
}

inline void lexical_analyzer::skip_char()
{
    get_char();
}

#endif//LEXICAL_ANALYZER_H




[lexical_analyzer.cpp]


#include <fstream>
#include "lexical_analyzer.h"

int lexical_analyzer::get_char()
{
    int ch = m_pstream->get();
    if (ch=='\n')
        ++m_line;
    return ch;
}

void lexical_analyzer::putback(char ch)
{
    if (ch=='\n')
        --m_line;
    m_pstream->putback(ch);
}

bool lexical_analyzer::filter_space()
{
    bool result = false;
    char ch = peek_char();
    if (isspace(ch))
    {
        do
        {
            skip_char();
            ch = peek_char();
        }
        while (isspace(ch));
        return true;
    }
    return false;
}

bool lexical_analyzer::filter_comment()
{
    if(peek_char()=='/')
    {
        skip_char();
        char ch = get_char();
        if(ch=='/')
        {
            while(peek_char()!='\n')
            {
                skip_char();
            }
        }
        else if(ch=='*')
        {
            for(;;)
            {
                if(get_char()=='*' && get_char()=='/')
                    break;
            }
        }
        else
        {
            putback('/');
            return false;
        }
        return true;
    }
    else
    {
        return false;
    }
}

bool lexical_analyzer::is_keyword(const std::string& str)
{
    static const char* const keywords[]=
    {
        "asm",      "auto",         "bad_cast",     "bad_typeid",
        "bool",     "break",        "case",         "catch",
        "char",     "class",        "const",        "const_cast",
        "continue", "default",      "delete",       "do",
        "double",   "dynamic_cast", "else",         "enum",
        "except",   "explicit",     "extern",       "false",
        "finally",  "float",        "for",          "friend",
        "goto",     "if",           "inline",       "int",
        "long",     "mutable",      "namespace",    "new",
        "operator", "private",      "protected",    "public",
        "register", "reinterpret_cast",     "return",   "short",
        "signed",   "sizeof",       "static",       "static_cast",
        "struct",   "switch",       "template",     "this",
        "throw",    "true",         "try",          "typedef",
        "typeid",   "typename",     "union",        "unsigned",
        "using",    "virtual",      "void",         "volatile",
        "while", 
    };

    for(int i=0; i<sizeof(keywords)/sizeof(keywords[0]); i++)
    {
        if(str.compare(keywords[i])==0)
            return true;
    }

    return false;
}

std::string lexical_analyzer::get_string(char delimiter)
{
    std::string result;
    for(;;)
    {
        char ch = get_char();
        if(ch==delimiter)
            break;
        else if(ch=='\\')
        {
            ch = get_char();
            switch(ch)
            {
            case '\"':
                ch = '\"';
                break;
            case '\'':
                ch = '\'';
                break;
            case 'r':
                ch = '\r';
                break;

            case 'n':
                ch = '\n';
                break;
            case 'v':
                ch = '\v';
                break;
            case 't':
                ch = '\t';
                break;
            case 'a':
                ch = '\a';
                break;
            case 'b':
                ch = '\b';
                break;
            case 'f':
                ch = '\f';
                break;
            case '\r':                          // line splice
            case '\n':
                continue;
                break;
            default:
                break;
            }

            if(ch=='x' || ch=='X')
            {
                std::string s = get_hex_string();
                int x = 0;
                for(int i=0; i<s.length(); i++)
                {
                    x *= 16;
                    if(s[i]>='A' && s[i]<='F')
                        x += s[i]-'A' + 10;
                    else if(s[i]>='a' && s[i]<='f')
                        x += s[i]-'a' + 10;
                    else
                        x += s[i]-'0';
                }
                ch = (char)x;
            }

        }

        result += ch;
    }

    return result;
}

std::string lexical_analyzer::get_digital_string()
{
    std::string result;
    char ch;
    while(isdigit(ch=get_char()))
    {
        result += ch;
    }
    putback(ch);

    return result;
}

std::string lexical_analyzer::get_hex_string()
{
    std::string result;
    char ch;
    while(isxdigit(ch=get_char()))
    {
        result += ch;
    }
    putback(ch);

    return result;
}

lexical_status lexical_analyzer::get_token(token& t)
{
    if(m_pstream->eof())
        return status_eof;


    while(filter_space() || filter_comment())
    {
    }
    while(filter_comment() || filter_space())
    {
    }

    if(m_pstream->eof())
        return status_eof;

    t.value.resize(0);

    char ch = get_char();
    if(ch=='_' || isalpha(ch) || isdigit(ch) || ch=='$')
    {
        t.category = token_identifier;
        do
        {
            t.value += ch;
            ch = get_char();
        }while(ch=='_' || isalpha(ch) || isdigit(ch) || ch=='$');
        putback(ch);
    }
    else if(isdigit(ch))
    {
        t.category = token_number;
        t.value += ch;
        ch = get_char();
        if(ch=='x' || ch=='X')
        {
            t.value += ch;
            t.value += get_hex_string();
        }
        else if(isdigit(ch))
        {
            t.value += ch;
            t.value += get_digital_string();
        }
    }
    else if(ch=='\"')
    {
        t.category = token_string;
        t.value = get_string('\"');
    }
    else if(ch=='\'')
    {
        t.category = token_char;
        t.value = get_string('\'');
    }
    else
    {
        t.category = token_operator;
        if(ch=='=' || ch=='&' || ch=='|' || ch==':')
        {
            t.value = ch;
            if(peek_char()==ch)
            {
                t.value += ch;
                skip_char();
            }
        }
        else if(ch=='+' || ch=='-')
        {
            t.value = ch;
            char cc = get_char();
            if(cc==ch)
            {
                t.value += ch;
            }
            else if(cc=='=')
            {
                t.value += '=';
            }
            else if(ch=='-' && cc=='>')
            {
                t.value += '>';                         // ->
                cc = peek_char();
                if(cc=='*')
                {
                    skip_char();

                    t.value += '*';                     // ->*
                }
            }
            else
            {
                putback(cc);
            }
        }
        else if(ch=='*' || ch=='/' || ch=='%' || ch=='^' || ch=='!')
        {

            t.value = ch;
            ch = peek_char();
            if(ch=='=')
            {
                t.value+='=';
                skip_char();
            }
        }
        else if(ch=='<' || ch=='>')
        {
            t.value = ch;
            char cc = get_char();
            if(ch==cc)                              // << >>
            {
                t.value += cc;
                cc = peek_char();
                if(cc=='=')                         // <<= >>=
                {
                    skip_char();
                    t.value += '=';
                }
            }
            else if(cc=='=')
            {
                t.value += '=';
            }
            else
            {
                putback(cc);
            }
        }
        else if(ch=='.')
        {
            t.value = '.';                          // .
            ch = get_char();
            if(ch=='*')
            {
                t.value += '*';                     // .*
            }
            else if(ch=='.')
            {
                char cc = get_char();
                if(cc=='.')                         // ...
                {
                    t.value += "..";
                }
                else
                {
                    putback(cc);
                    putback(ch);
                }
            }
            else
            {
                putback(ch);
            }
        }
        else if(ch=='~' || ch =='?' ||
            ch=='[' || ch==']' ||
            ch=='(' || ch==')'
            )
        {
            t.value = ch;
        }
        else if(ch==';' || ch=='{'|| ch=='}'|| ch==','|| ch=='#' )
        {
            t.category = token_punctuator;
            t.value = ch;
        }
        else if(ch=='\\')
        {
            ch = peek_char();
            if(ch=='\r' || ch=='\n')
            {
                skip_char();
            }
            else
            {
                t.category = token_error;
                t.value = ch;
            }
        }
        else
        {
            t.category = token_error;
            t.value = ch;
            return status_invalid_char;
        }
    }

    if(t.category == token_identifier && is_keyword(t.value))
    {
        t.category = token_keyword;
    }

    return status_success;
}



[main.c], 測試程序
#include <fstream>
#include <string>
#include <iostream>

#include "lexical_analyzer.h"

int main()
{
    std::ifstream ifs("D:\\ThreadFuncs.cpp", std::ios::in | std::ios::binary);
    lexical_analyzer lex(std::cin);
    //lexical_analyzer lex(ifs);
    std::ofstream ofs("D:\\out.cpp");
    //std::ostream& os = ofs;
    std::ostream& os = std::cout;
    token t;
    lexical_status status;
    while((status=lex.get_token(t))!=status_eof)
    {
        if(status==status_success)
            os << t.value << '\n';
        else if(status==status_invalid_char)
            std::cerr << "Line:" << lex.current_line() << "invalid_char: " << t.value << '\n';
    }
    return 0;
}

posted on 2008-05-17 00:09 肥仔 閱讀(1166) 評論(0)  編輯 收藏 引用 所屬分類: LEX & YACC

青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品
  • <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            麻豆九一精品爱看视频在线观看免费| 久久精品欧美日韩| 亚洲电影下载| 亚洲一区在线观看免费观看电影高清 | 老司机午夜精品视频| 欧美日韩亚洲一区| 亚洲国产精品一区二区久| 国产曰批免费观看久久久| 亚洲一区二区黄色| 在线视频欧美精品| 欧美精品色一区二区三区| 美国成人直播| 狠狠色综合色区| 午夜电影亚洲| 欧美一二三视频| 国产精品久久久久永久免费观看 | 国产日产欧美精品| 欧美黄色aaaa| 亚洲国产精品久久久| 久久国产一区二区| 久久精品噜噜噜成人av农村| 国产精品区免费视频| 亚洲永久免费| 欧美亚洲在线视频| 国产欧美二区| 久久久www成人免费无遮挡大片| 亚洲欧美日韩精品久久久| 欧美视频你懂的| 一区二区三区成人精品| 亚洲一区久久久| 国产精品一区二区视频 | 亚洲一区在线免费| 午夜国产精品影院在线观看| 国产精品久久久久久模特| 亚洲午夜精品网| 香蕉久久夜色精品国产使用方法| 国产精品一香蕉国产线看观看 | 欧美日韩国产区一| 99国产精品自拍| 亚洲欧美另类国产| 国产亚洲一区二区精品| 久久久免费精品视频| 欧美福利视频网站| 一本一本久久a久久精品综合麻豆 一本一本久久a久久精品牛牛影视 | 亚洲福利视频网站| 一本久久青青| 国产乱码精品| 美女免费视频一区| 日韩午夜激情av| 欧美一区二区日韩一区二区| 韩日视频一区| 欧美日韩成人综合天天影院| 在线午夜精品| 免费在线欧美黄色| 亚洲影院在线| 在线日本欧美| 国产精品免费电影| 久久综合久久综合久久综合| 日韩午夜在线观看视频| 久久久亚洲欧洲日产国码αv| 亚洲人成人77777线观看| 欧美亚日韩国产aⅴ精品中极品| 久久精品一区二区国产| 亚洲靠逼com| 免费成年人欧美视频| 亚洲一区二区在线| 亚洲黄色在线| 国产日产欧产精品推荐色 | 在线观看91精品国产麻豆| 欧美国产高清| 久久激情网站| 亚洲线精品一区二区三区八戒| 久久影院午夜论| 亚洲在线视频网站| 亚洲人体大胆视频| 伊人成人在线| 国产乱码精品| 欧美午夜精品久久久久免费视 | 久久久久久成人| 亚洲一区二区三区在线播放| 亚洲国产天堂网精品网站| 久久国产视频网| 亚洲欧美资源在线| 一区二区三区四区五区精品视频| 激情综合电影网| 国产视频欧美| 国产精品一级二级三级| 欧美网站在线| 欧美日韩精品免费看| 你懂的国产精品| 久久天堂av综合合色| 性做久久久久久免费观看欧美| 一区二区欧美视频| 亚洲精品自在在线观看| 亚洲国产成人在线播放| 欧美成人精品不卡视频在线观看| 久久久久久久尹人综合网亚洲| 亚洲欧美日韩国产一区| 亚洲四色影视在线观看| 一区二区不卡在线视频 午夜欧美不卡在 | 伊人久久噜噜噜躁狠狠躁| 国产视频在线观看一区| 国产视频自拍一区| 国产午夜精品理论片a级大结局 | 亚洲天堂久久| 夜夜爽av福利精品导航| 日韩午夜电影av| 日韩天堂在线观看| 亚洲乱码久久| 一区二区日韩| 亚洲欧美日韩天堂一区二区| 亚洲在线免费观看| 亚洲欧美色婷婷| 久久国产精品99久久久久久老狼| 久久99在线观看| 久热综合在线亚洲精品| 欧美成人精品一区| 欧美美女操人视频| 国产精品www994| 国产日韩av高清| 精品999在线观看| 亚洲国产一区二区三区高清 | 亚洲一区国产| 香蕉成人久久| 美女视频网站黄色亚洲| 亚洲国产精品va在线看黑人动漫 | 亚洲色无码播放| 午夜亚洲福利| 美女主播精品视频一二三四| 欧美国产欧美亚洲国产日韩mv天天看完整 | 亚洲一区精品在线| 久久成人一区| 欧美va亚洲va国产综合| 欧美伦理在线观看| 国产精品一级在线| 在线观看亚洲| 亚洲一区二区不卡免费| 久久www成人_看片免费不卡| 欧美www在线| 亚洲天堂av高清| 久久午夜电影| 国产精品久久久久影院亚瑟| 黑人巨大精品欧美一区二区小视频 | 欧美尤物一区| 亚洲国产老妈| 欧美一区午夜精品| 欧美伦理91i| 国内揄拍国内精品久久 | 亚洲国产精选| 午夜免费久久久久| 欧美黄色片免费观看| 亚洲欧美日韩爽爽影院| 欧美风情在线观看| 国产喷白浆一区二区三区| 亚洲老司机av| 久久影视精品| 亚洲一区二区三区精品在线| 欧美成人精品h版在线观看| 国产农村妇女精品| 99视频热这里只有精品免费| 久久久女女女女999久久| 亚洲免费av观看| 麻豆免费精品视频| 国产亚洲综合精品| 亚洲欧美另类在线| 亚洲精品在线观看免费| 久久人人97超碰人人澡爱香蕉| 国产精品九九久久久久久久| 亚洲精品国产精品乱码不99按摩| 久久精品一级爱片| 亚洲永久在线| 欧美色网在线| 中文精品视频一区二区在线观看| 麻豆av一区二区三区| 午夜精品影院在线观看| 欧美三级第一页| 在线视频欧美日韩精品| 最近中文字幕mv在线一区二区三区四区 | 91久久精品国产91性色| 久久蜜臀精品av| 欧美亚洲一区二区在线观看| 欧美午夜www高清视频| 亚洲成人在线视频播放| 欧美一区二区三区视频| 亚洲小少妇裸体bbw| 欧美日韩国产不卡| 一本综合久久| 亚洲久久一区| 欧美色图五月天| 亚洲视频每日更新| 一区二区三区四区国产精品| 欧美日韩日日夜夜| 亚洲视频一区在线| 一本色道久久综合亚洲精品不卡 | 久久综合久久综合九色| 欧美在线中文字幕| 国产中文一区| 欧美不卡在线| 欧美激情自拍| 亚洲一区二区黄|