青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品

woaidongmao

文章均收錄自他人博客,但不喜標(biāo)題前加-[轉(zhuǎn)貼],因其丑陋,見諒!~
隨筆 - 1469, 文章 - 0, 評(píng)論 - 661, 引用 - 0
數(shù)據(jù)加載中……

C++的詞法分析器

 

[lexical_analyzer.h]

#ifndef LEXICAL_ANALYZER_H
#define LEXICAL_ANALYZER_H

enum lexical_status
{
    status_success,
    status_eof,
    status_invalid_char,
    status_unknown = -1,
};

enum token_category
{
    token_error,
    token_keyword,
    token_identifier,
    token_number,
    token_char,
    token_string,
    token_operator,
    token_punctuator,
};

struct token
{

    token_category category;
    std::string value;
};

class lexical_analyzer
{
public:
    explicit lexical_analyzer(std::istream& ifs);
    lexical_status get_token(token& t);
    int current_line() const;
private:
    bool filter_space();
    bool filter_comment();
    std::string get_hex_string();
    std::string get_digital_string();
    std::string get_string(char delimiter);
    bool is_keyword(const std::string& str);
    int get_char();
    int peek_char();
    void putback(char ch);
    void skip_char();
private:
    std::istream* m_pstream;
    int m_line;
};

inline lexical_analyzer::lexical_analyzer(std::istream& ifs)
    :m_pstream(&ifs), m_line(1)
{
}

inline int lexical_analyzer::current_line() const
{
    return m_line;
}

inline int lexical_analyzer::peek_char()
{
    return m_pstream->peek();
}

inline void lexical_analyzer::skip_char()
{
    get_char();
}

#endif//LEXICAL_ANALYZER_H




[lexical_analyzer.cpp]


#include <fstream>
#include "lexical_analyzer.h"

int lexical_analyzer::get_char()
{
    int ch = m_pstream->get();
    if (ch=='\n')
        ++m_line;
    return ch;
}

void lexical_analyzer::putback(char ch)
{
    if (ch=='\n')
        --m_line;
    m_pstream->putback(ch);
}

bool lexical_analyzer::filter_space()
{
    bool result = false;
    char ch = peek_char();
    if (isspace(ch))
    {
        do
        {
            skip_char();
            ch = peek_char();
        }
        while (isspace(ch));
        return true;
    }
    return false;
}

bool lexical_analyzer::filter_comment()
{
    if(peek_char()=='/')
    {
        skip_char();
        char ch = get_char();
        if(ch=='/')
        {
            while(peek_char()!='\n')
            {
                skip_char();
            }
        }
        else if(ch=='*')
        {
            for(;;)
            {
                if(get_char()=='*' && get_char()=='/')
                    break;
            }
        }
        else
        {
            putback('/');
            return false;
        }
        return true;
    }
    else
    {
        return false;
    }
}

bool lexical_analyzer::is_keyword(const std::string& str)
{
    static const char* const keywords[]=
    {
        "asm",      "auto",         "bad_cast",     "bad_typeid",
        "bool",     "break",        "case",         "catch",
        "char",     "class",        "const",        "const_cast",
        "continue", "default",      "delete",       "do",
        "double",   "dynamic_cast", "else",         "enum",
        "except",   "explicit",     "extern",       "false",
        "finally",  "float",        "for",          "friend",
        "goto",     "if",           "inline",       "int",
        "long",     "mutable",      "namespace",    "new",
        "operator", "private",      "protected",    "public",
        "register", "reinterpret_cast",     "return",   "short",
        "signed",   "sizeof",       "static",       "static_cast",
        "struct",   "switch",       "template",     "this",
        "throw",    "true",         "try",          "typedef",
        "typeid",   "typename",     "union",        "unsigned",
        "using",    "virtual",      "void",         "volatile",
        "while", 
    };

    for(int i=0; i<sizeof(keywords)/sizeof(keywords[0]); i++)
    {
        if(str.compare(keywords[i])==0)
            return true;
    }

    return false;
}

std::string lexical_analyzer::get_string(char delimiter)
{
    std::string result;
    for(;;)
    {
        char ch = get_char();
        if(ch==delimiter)
            break;
        else if(ch=='\\')
        {
            ch = get_char();
            switch(ch)
            {
            case '\"':
                ch = '\"';
                break;
            case '\'':
                ch = '\'';
                break;
            case 'r':
                ch = '\r';
                break;

            case 'n':
                ch = '\n';
                break;
            case 'v':
                ch = '\v';
                break;
            case 't':
                ch = '\t';
                break;
            case 'a':
                ch = '\a';
                break;
            case 'b':
                ch = '\b';
                break;
            case 'f':
                ch = '\f';
                break;
            case '\r':                          // line splice
            case '\n':
                continue;
                break;
            default:
                break;
            }

            if(ch=='x' || ch=='X')
            {
                std::string s = get_hex_string();
                int x = 0;
                for(int i=0; i<s.length(); i++)
                {
                    x *= 16;
                    if(s[i]>='A' && s[i]<='F')
                        x += s[i]-'A' + 10;
                    else if(s[i]>='a' && s[i]<='f')
                        x += s[i]-'a' + 10;
                    else
                        x += s[i]-'0';
                }
                ch = (char)x;
            }

        }

        result += ch;
    }

    return result;
}

std::string lexical_analyzer::get_digital_string()
{
    std::string result;
    char ch;
    while(isdigit(ch=get_char()))
    {
        result += ch;
    }
    putback(ch);

    return result;
}

std::string lexical_analyzer::get_hex_string()
{
    std::string result;
    char ch;
    while(isxdigit(ch=get_char()))
    {
        result += ch;
    }
    putback(ch);

    return result;
}

lexical_status lexical_analyzer::get_token(token& t)
{
    if(m_pstream->eof())
        return status_eof;


    while(filter_space() || filter_comment())
    {
    }
    while(filter_comment() || filter_space())
    {
    }

    if(m_pstream->eof())
        return status_eof;

    t.value.resize(0);

    char ch = get_char();
    if(ch=='_' || isalpha(ch) || isdigit(ch) || ch=='$')
    {
        t.category = token_identifier;
        do
        {
            t.value += ch;
            ch = get_char();
        }while(ch=='_' || isalpha(ch) || isdigit(ch) || ch=='$');
        putback(ch);
    }
    else if(isdigit(ch))
    {
        t.category = token_number;
        t.value += ch;
        ch = get_char();
        if(ch=='x' || ch=='X')
        {
            t.value += ch;
            t.value += get_hex_string();
        }
        else if(isdigit(ch))
        {
            t.value += ch;
            t.value += get_digital_string();
        }
    }
    else if(ch=='\"')
    {
        t.category = token_string;
        t.value = get_string('\"');
    }
    else if(ch=='\'')
    {
        t.category = token_char;
        t.value = get_string('\'');
    }
    else
    {
        t.category = token_operator;
        if(ch=='=' || ch=='&' || ch=='|' || ch==':')
        {
            t.value = ch;
            if(peek_char()==ch)
            {
                t.value += ch;
                skip_char();
            }
        }
        else if(ch=='+' || ch=='-')
        {
            t.value = ch;
            char cc = get_char();
            if(cc==ch)
            {
                t.value += ch;
            }
            else if(cc=='=')
            {
                t.value += '=';
            }
            else if(ch=='-' && cc=='>')
            {
                t.value += '>';                         // ->
                cc = peek_char();
                if(cc=='*')
                {
                    skip_char();

                    t.value += '*';                     // ->*
                }
            }
            else
            {
                putback(cc);
            }
        }
        else if(ch=='*' || ch=='/' || ch=='%' || ch=='^' || ch=='!')
        {

            t.value = ch;
            ch = peek_char();
            if(ch=='=')
            {
                t.value+='=';
                skip_char();
            }
        }
        else if(ch=='<' || ch=='>')
        {
            t.value = ch;
            char cc = get_char();
            if(ch==cc)                              // << >>
            {
                t.value += cc;
                cc = peek_char();
                if(cc=='=')                         // <<= >>=
                {
                    skip_char();
                    t.value += '=';
                }
            }
            else if(cc=='=')
            {
                t.value += '=';
            }
            else
            {
                putback(cc);
            }
        }
        else if(ch=='.')
        {
            t.value = '.';                          // .
            ch = get_char();
            if(ch=='*')
            {
                t.value += '*';                     // .*
            }
            else if(ch=='.')
            {
                char cc = get_char();
                if(cc=='.')                         // ...
                {
                    t.value += "..";
                }
                else
                {
                    putback(cc);
                    putback(ch);
                }
            }
            else
            {
                putback(ch);
            }
        }
        else if(ch=='~' || ch =='?' ||
            ch=='[' || ch==']' ||
            ch=='(' || ch==')'
            )
        {
            t.value = ch;
        }
        else if(ch==';' || ch=='{'|| ch=='}'|| ch==','|| ch=='#' )
        {
            t.category = token_punctuator;
            t.value = ch;
        }
        else if(ch=='\\')
        {
            ch = peek_char();
            if(ch=='\r' || ch=='\n')
            {
                skip_char();
            }
            else
            {
                t.category = token_error;
                t.value = ch;
            }
        }
        else
        {
            t.category = token_error;
            t.value = ch;
            return status_invalid_char;
        }
    }

    if(t.category == token_identifier && is_keyword(t.value))
    {
        t.category = token_keyword;
    }

    return status_success;
}



[main.c], 測(cè)試程序
#include <fstream>
#include <string>
#include <iostream>

#include "lexical_analyzer.h"

int main()
{
    std::ifstream ifs("D:\\ThreadFuncs.cpp", std::ios::in | std::ios::binary);
    lexical_analyzer lex(std::cin);
    //lexical_analyzer lex(ifs);
    std::ofstream ofs("D:\\out.cpp");
    //std::ostream& os = ofs;
    std::ostream& os = std::cout;
    token t;
    lexical_status status;
    while((status=lex.get_token(t))!=status_eof)
    {
        if(status==status_success)
            os << t.value << '\n';
        else if(status==status_invalid_char)
            std::cerr << "Line:" << lex.current_line() << "invalid_char: " << t.value << '\n';
    }
    return 0;
}

posted on 2008-05-17 00:09 肥仔 閱讀(1166) 評(píng)論(0)  編輯 收藏 引用 所屬分類: LEX & YACC

青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品
  • <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            免费h精品视频在线播放| 另类亚洲自拍| 亚洲字幕在线观看| 亚洲欧美日韩一区二区三区在线| 亚洲午夜av| 国产女优一区| 国产日韩精品电影| 国内精品久久久久影院 日本资源| 国产欧美日韩一区二区三区在线 | 欧美激情一区二区三区不卡| 男男成人高潮片免费网站| 免费在线播放第一区高清av| 欧美激情精品久久久久| 亚洲国产高潮在线观看| 亚洲欧洲另类国产综合| av成人手机在线| 亚洲一区制服诱惑| 久久精品视频在线免费观看| 另类av一区二区| 欧美女人交a| 国产精品丝袜久久久久久app| 国产在线精品一区二区中文| 在线观看欧美精品| 国产麻豆午夜三级精品| 激情久久久久久久| 亚洲欧洲在线一区| 亚洲免费在线观看视频| 久久精品国产精品亚洲| 欧美高清视频一区二区| 日韩亚洲欧美一区二区三区| 午夜精品一区二区三区在线播放| 久久裸体艺术| 欧美日韩精品一区二区天天拍小说 | 久久se精品一区二区| 免费看成人av| 国产精品久久久久久久7电影| 国产综合色一区二区三区| 最新中文字幕一区二区三区| 亚洲一区尤物| 欧美wwwwww| 中文一区字幕| 麻豆成人综合网| 国产精品乱码| 亚洲日本无吗高清不卡| 午夜国产精品视频| 欧美成人免费小视频| 亚洲视频观看| 欧美成人蜜桃| 国产一区三区三区| 亚洲视频电影在线| 久久久久久国产精品mv| 久久国产日韩欧美| 亚洲精品色图| 久久久久国产免费免费| 欧美天天影院| 亚洲精品国产精品国产自| 久久久久久亚洲精品不卡4k岛国| 亚洲精品国产精品乱码不99| 久久国产黑丝| 国产精品美女在线观看| 亚洲人成绝费网站色www| 久久精品夜色噜噜亚洲aⅴ| 99视频精品免费观看| 久久亚洲午夜电影| 国产一区二区剧情av在线| 中国亚洲黄色| 欧美激情精品久久久久久蜜臀| 欧美亚洲一区| 国产精品美女久久久久av超清 | 久久激情一区| 国产精品色网| 亚洲小说区图片区| 91久久精品美女高潮| 久久久蜜桃一区二区人| 国产欧美日韩视频一区二区| 亚洲永久免费av| 亚洲黄色一区| 欧美成人精品一区二区| 在线精品一区| 这里只有视频精品| 亚洲第一狼人社区| 久久亚洲高清| 精品成人久久| 久久久综合精品| 欧美在线免费观看亚洲| 国产欧美精品日韩精品| 亚洲欧美一区在线| 中日韩在线视频| 欧美三级日韩三级国产三级| 日韩天堂在线视频| 亚洲精品国精品久久99热一| 久久综合99re88久久爱| 在线观看日韩一区| 欧美国产日本韩| 蜜臀av一级做a爰片久久| 影院欧美亚洲| 欧美www视频| 欧美ed2k| 日韩亚洲综合在线| 日韩午夜电影av| 欧美视频免费在线| 亚洲自拍偷拍福利| 亚洲欧美怡红院| 国产一区二区三区免费不卡| 久久久www成人免费无遮挡大片| 亚洲欧美日本日韩| 国产字幕视频一区二区| 久久深夜福利| 麻豆av一区二区三区久久| 亚洲国产日韩欧美| 亚洲人成7777| 国产精品激情偷乱一区二区∴| 亚洲欧美精品一区| 欧美一级黄色网| 激情视频一区二区| 亚洲国产天堂久久综合网| 欧美剧在线免费观看网站| 宅男精品视频| 午夜精品国产更新| 在线观看亚洲视频啊啊啊啊| 欧美国产极速在线| 欧美日韩亚洲视频| 久久成人综合网| 久久天堂精品| 亚洲最新中文字幕| 亚洲主播在线播放| 精品动漫一区| 亚洲日本国产| 国产精品区免费视频| 久久在精品线影院精品国产| 男同欧美伦乱| 午夜视黄欧洲亚洲| 久久久噜噜噜久久狠狠50岁| 夜夜嗨一区二区三区| 亚洲欧美成人精品| 亚洲第一区色| 中文日韩在线视频| 激情综合久久| 99精品99| 在线观看精品| 亚洲视频免费观看| 伊人色综合久久天天五月婷| 亚洲六月丁香色婷婷综合久久| 国产欧美精品久久| 亚洲人成小说网站色在线| 国产精品揄拍500视频| 欧美成人精品一区| 国产精品久久网| 欧美国产一区视频在线观看 | 欧美99在线视频观看| 亚洲欧美一区二区精品久久久| 久久久人成影片一区二区三区| 中文在线一区| 狂野欧美激情性xxxx| 亚洲欧美另类在线观看| 麻豆成人av| 久久九九久久九九| 欧美日韩在线视频首页| 看欧美日韩国产| 国产精品久久毛片a| 亚洲电影av在线| 国内精品写真在线观看| 夜久久久久久| 91久久在线观看| 久久国产成人| 香蕉久久久久久久av网站| 欧美激情综合在线| 免费在线欧美视频| 国产欧美日韩视频一区二区三区 | 亚洲午夜一级| 嫩草国产精品入口| 久久视频在线看| 国产精品久久久久久久午夜片| 欧美高清视频www夜色资源网| 国产一级揄自揄精品视频| 一本色道久久| 99精品欧美一区二区三区综合在线| 久久国产欧美| 欧美在线999| 国产精品成人一区二区艾草| 最新高清无码专区| 亚洲国产精品一区在线观看不卡| 欧美在线视频二区| 欧美亚洲三级| 欧美午夜欧美| 99精品福利视频| 99精品欧美| 欧美激情综合| 亚洲国产日韩欧美在线99| 在线精品国产成人综合| 久久精品国产精品亚洲| 久久精品国产一区二区三区| 国产精品毛片高清在线完整版| 亚洲毛片在线观看| 一区二区三区黄色| 欧美欧美全黄| 亚洲美女电影在线| 正在播放欧美视频| 欧美日韩激情网| 99re6热只有精品免费观看|