FAQ_DEV
上传用户:blenddy
上传日期:2007-01-07
资源大小:6495k
文件大小:18k
源码类别:

数据库系统

开发平台:

Unix_Linux

  1.           Developer's Frequently Asked Questions (FAQ) for PostgreSQL
  2.                                        
  3.    Last updated: Sat Jul 10 00:38:09 EDT 1999
  4.    
  5.    Current maintainer: Bruce Momjian (maillist@candle.pha.pa.us)
  6.    
  7.    The most recent version of this document can be viewed at the
  8.    postgreSQL Web site, http://PostgreSQL.org.
  9.      _________________________________________________________________
  10.    
  11.                                  Questions
  12.                                       
  13.    1) What tools are available for developers?
  14.    2) What books are good for developers?
  15.    3) Why do we use palloc() and pfree() to allocate memory?
  16.    4) Why do we use Node and List to make data structures?
  17.    5) How do I add a feature or fix a bug?
  18.    6) How do I download/update the current source tree?
  19.    7) How do I test my changes?
  20.    7) I just added a field to a structure. What else should I do?
  21.    8) Why are table, column, type, function, view names sometimes
  22.    referenced as Name or NameData, and sometimes as char *?
  23.    9) How do I efficiently access information in tables from the backend
  24.    code?
  25.    10) What is elog()?
  26.    11) What is configure all about?
  27.    12) How do I add a new port?
  28.      _________________________________________________________________
  29.    
  30.   1) What tools are available for developers?
  31.   
  32.    Aside from the User documentation mentioned in the regular FAQ, there
  33.    are several development tools available. First, all the files in the
  34.    /tools directory are designed for developers.
  35.         RELEASE_CHANGES         changes we have to make for each release
  36.         SQL_keywords            standard SQL'92 keywords
  37.         backend                 description/flowchart of the backend directorie
  38. s
  39.         ccsym                   find standard defines made by your compiler
  40.         entab                   converts tabs to spaces, used by pgindent
  41.         find_static             finds functions that could be made static
  42.         find_typedef            get a list of typedefs in the source code
  43.         make_ctags              make vi 'tags' file in each directory
  44.         make_diff               make *.orig and diffs of source
  45.         make_etags              make emacs 'etags' files
  46.         make_keywords.README    make comparison of our keywords and SQL'92
  47.         make_mkid               make mkid ID files
  48.         mkldexport              create AIX exports file
  49.         pgindent                indents C source files
  50.         pginclude               scripts for adding/removing include files
  51.    Let me note some of these. If you point your browser at the
  52.    file:/usr/local/src/pgsql/src/tools/backend/index.html directory, you
  53.    will see few paragraphs describing the data flow, the backend
  54.    components in a flow chart, and a description of the shared memory
  55.    area. You can click on any flowchart box to see a description. If you
  56.    then click on the directory name, you will be taken to the source
  57.    directory, to browse the actual source code behind it. We also have
  58.    several README files in some source directories to describe the
  59.    function of the module. The browser will display these when you enter
  60.    the directory also. The tools/backend directory is also contained on
  61.    our web page under the title How PostgreSQL Processes a Query.
  62.    
  63.    Second, you really should have an editor that can handle tags, so you
  64.    can tag a function call to see the function definition, and then tag
  65.    inside that function to see an even lower-level function, and then
  66.    back out twice to return to the original function. Most editors
  67.    support this via tags or etags files.
  68.    
  69.    Third, you need to get mkid from ftp.postgresql.org. By running
  70.    tools/make_mkid, an archive of source symbols can be created that can
  71.    be rapidly queried like grep or edited. Others prefer glimpse.
  72.    
  73.    make_diff has tools to create patch diff files that can be applied to
  74.    the distribution.
  75.    
  76.    pgindent will format source files to match our standard format, which
  77.    has four-space tabs, and an indenting format specified by flags to the
  78.    your operating system's utility indent.
  79.    
  80.    pgindent is run on all source files just before each beta test period.
  81.    It auto-formats all source files to make them consistent. Comment
  82.    blocks that need specific line breaks should be formatted as block
  83.    comments, where the comment starts as /*------. These comments will
  84.    not be reformatted in any way. pginclude contains scripts used to add
  85.    needed #include's to include files, and removed unneeded #include's.
  86.    
  87.   2) What books are good for developers?
  88.   
  89.    I have four good books, An Introduction to Database Systems, by C.J.
  90.    Date, Addison, Wesley, A Guide to the SQL Standard, by C.J. Date, et.
  91.    al, Addison, Wesley, Fundamentals of Database Systems, by Elmasri and
  92.    Navathe, and Transaction Processing, by Jim Gray, Morgan, Kaufmann
  93.    
  94.    There is also a database performance site, with a handbook on-line
  95.    written by Jim Gray at http://www.benchmarkresources.com.
  96.    
  97.   3) Why do we use palloc() and pfree() to allocate memory?
  98.   
  99.    palloc() and pfree() are used in place of malloc() and free() because
  100.    we automatically free all memory allocated when a transaction
  101.    completes. This makes it easier to make sure we free memory that gets
  102.    allocated in one place, but only freed much later. There are several
  103.    contexts that memory can be allocated in, and this controls when the
  104.    allocated memory is automatically freed by the backend.
  105.    
  106.   4) Why do we use Node and List to make data structures?
  107.   
  108.    We do this because this allows a consistent way to pass data inside
  109.    the backend in a flexible way. Every node has a NodeTag which
  110.    specifies what type of data is inside the Node. Lists are groups of
  111.    Nodes chained together as a forward-linked list.
  112.    
  113.    Here are some of the List manipulation commands:
  114.    
  115.    lfirst(i)
  116.           return the data at list element i.
  117.           
  118.    lnext(i)
  119.           return the next list element after i.
  120.           
  121.    foreach(i, list)
  122.           loop through list, assigning each list element to i. It is
  123.           important to note that i is a List *, not the data in the List
  124.           element. You need to use lfirst(i) to get at the data. Here is
  125.           a typical code snipped that loops through a List containing Var
  126.           *'s and processes each one:
  127.           
  128.     List *i, *list;
  129.     foreach(i, list)
  130.     {
  131.         Var *var = lfirst(i);
  132.         /* process var here */
  133.     }
  134.    lcons(node, list)
  135.           add node to the front of list, or create a new list with node
  136.           if list is NIL.
  137.           
  138.    lappend(list, node)
  139.           add node to the end of list. This is more expensive that lcons.
  140.           
  141.    nconc(list1, list2)
  142.           Concat list2 on to the end of list1.
  143.           
  144.    length(list)
  145.           return the length of the list.
  146.           
  147.    nth(i, list)
  148.           return the i'th element in list.
  149.           
  150.    lconsi, ...
  151.           There are integer versions of these: lconsi, lappendi, nthi.
  152.           List's containing integers instead of Node pointers are used to
  153.           hold list of relation object id's and other integer quantities.
  154.           
  155.    You can print nodes easily inside gdb. First, to disable output
  156.    truncation when you use the gdb print command:
  157.         (gdb) set print elements 0
  158.    Instead of printing values in gdb format, you can use the next two
  159.    commands to print out List, Node, and structure contents in a verbose
  160.    format that is easier to understand. List's are unrolled into nodes,
  161.    and nodes are printed in detail. The first prints in a short format,
  162.    and the second in a long format:
  163.         (gdb) call print(any_pointer)
  164.         (gdb) call pprint(any_pointer)
  165.    The output appears in the postmaster log file, or on your screen if
  166.    you are running a backend directly without a postmaster.
  167.    
  168.   5) How do I add a feature or fix a bug?
  169.   
  170.    The source code is over 250,000 lines. Many problems/features are
  171.    isolated to one specific area of the code. Others require knowledge of
  172.    much of the source. If you are confused about where to start, ask the
  173.    hackers list, and they will be glad to assess the complexity and give
  174.    pointers on where to start.
  175.    
  176.    Another thing to keep in mind is that many fixes and features can be
  177.    added with surprisingly little code. I often start by adding code,
  178.    then looking at other areas in the code where similar things are done,
  179.    and by the time I am finished, the patch is quite small and compact.
  180.    
  181.    When adding code, keep in mind that it should use the existing
  182.    facilities in the source, for performance reasons and for simplicity.
  183.    Often a review of existing code doing similar things is helpful.
  184.    
  185.   6) How do I download/update the current source tree?
  186.   
  187.    There are several ways to obtain the source tree. Occasional
  188.    developers can just get the most recent source tree snapshot from
  189.    ftp.postgresql.org. For regular developers, you can use CVS. CVS
  190.    allows you to download the source tree, then occasionally update your
  191.    copy of the source tree with any new changes. Using CVS, you don't
  192.    have to download the entire source each time, only the changed files.
  193.    Anonymous CVS does not allows developers to update the remote source
  194.    tree, though privileged developers can do this. There is a CVS FAQ on
  195.    our web site that describes how to use remote CVS. You can also use
  196.    CVSup, which has similarly functionality, and is available from
  197.    ftp.postgresql.org.
  198.    
  199.    To update the source tree, there are two ways. You can generate a
  200.    patch against your current source tree, perhaps using the make_diff
  201.    tools mentioned above, and send them to the patches list. They will be
  202.    reviewed, and applied in a timely manner. If the patch is major, and
  203.    we are in beta testing, the developers may wait for the final release
  204.    before applying your patches.
  205.    
  206.    For hard-core developers, Marc(scrappy@postgresql.org) will give you a
  207.    Unix shell account on postgresql.org, so you can use CVS to update the
  208.    main source tree, or you can ftp your files into your account, patch,
  209.    and cvs install the changes directly into the source tree.
  210.    
  211.   6) How do I test my changes?
  212.   
  213.    First, use psql to make sure it is working as you expect. Then run
  214.    src/test/regress and get the output of src/test/regress/checkresults
  215.    with and without your changes, to see that your patch does not change
  216.    the regression test in unexpected ways. This practice has saved me
  217.    many times. The regression tests test the code in ways I would never
  218.    do, and has caught many bugs in my patches. By finding the problems
  219.    now, you save yourself a lot of debugging later when things are
  220.    broken, and you can't figure out when it happened.
  221.    
  222.   7) I just added a field to a structure. What else should I do?
  223.   
  224.    The structures passing around from the parser, rewrite, optimizer, and
  225.    executor require quite a bit of support. Most structures have support
  226.    routines in src/backend/nodes used to create, copy, read, and output
  227.    those structures. Make sure you add support for your new field to
  228.    these files. Find any other places the structure may need code for
  229.    your new field. mkid is helpful with this (see above).
  230.    
  231.   8) Why are table, column, type, function, view names sometimes referenced as
  232.   Name or NameData, and sometimes as char *?
  233.   
  234.    Table, column, type, function, and view names are stored in system
  235.    tables in columns of type Name. Name is a fixed-length,
  236.    null-terminated type of NAMEDATALEN bytes. (The default value for
  237.    NAMEDATALEN is 32 bytes.)
  238.         typedef struct nameData
  239.         {
  240.             char        data[NAMEDATALEN];
  241.         } NameData;
  242.         typedef NameData *Name;
  243.    Table, column, type, function, and view names that come into the
  244.    backend via user queries are stored as variable-length,
  245.    null-terminated character strings.
  246.    
  247.    Many functions are called with both types of names, ie. heap_open().
  248.    Because the Name type is null-terminated, it is safe to pass it to a
  249.    function expecting a char *. Because there are many cases where
  250.    on-disk names(Name) are compared to user-supplied names(char *), there
  251.    are many cases where Name and char * are used interchangeably.
  252.    
  253.   9) How do I efficiently access information in tables from the backend code?
  254.   
  255.    You first need to find the tuples(rows) you are interested in. There
  256.    are two ways. First, SearchSysCacheTuple() and related functions allow
  257.    you to query the system catalogs. This is the preferred way to access
  258.    system tables, because the first call to the cache loads the needed
  259.    rows, and future requests can return the results without accessing the
  260.    base table. Some of the caches use system table indexes to look up
  261.    tuples. A list of available caches is located in
  262.    src/backend/utils/cache/syscache.c.
  263.    src/backend/utils/cache/lsyscache.c contains many column-specific
  264.    cache lookup functions.
  265.    
  266.    The rows returned are cached-owned versions of the heap rows. They are
  267.    invalidated when the base table changes. Because the cache is local to
  268.    each backend, you may use the pointer returned from the cache for
  269.    short periods without making a copy of the tuple. If you send the
  270.    pointer into a large function that will be doing its own cache
  271.    lookups, it is possible the cache entry may be flushed, so you should
  272.    use SearchSysCacheTupleCopy() in these cases, and pfree() the tuple
  273.    when you are done.
  274.    
  275.    If you can't use the system cache, you will need to retrieve the data
  276.    directly from the heap table, using the buffer cache that is shared by
  277.    all backends. The backend automatically takes care of loading the rows
  278.    into the buffer cache.
  279.    
  280.    Open the table with heap_open(). You can then start a table scan with
  281.    heap_beginscan(), then use heap_getnext() and continue as long as
  282.    HeapTupleIsValid() returns true. Then do a heap_endscan(). Keys can be
  283.    assigned to the scan. No indexes are used, so all rows are going to be
  284.    compared to the keys, and only the valid rows returned.
  285.    
  286.    You can also use heap_fetch() to fetch rows by block number/offset.
  287.    While scans automatically lock/unlock rows from the buffer cache, with
  288.    heap_fetch(), you must pass a Buffer pointer, and ReleaseBuffer() it
  289.    when completed. Once you have the row, you can get data that is common
  290.    to all tuples, like t_self and t_oid, by merely accessing the
  291.    HeapTuple structure entries. If you need a table-specific column, you
  292.    should take the HeapTuple pointer, and use the GETSTRUCT() macro to
  293.    access the table-specific start of the tuple. You then cast the
  294.    pointer as a Form_pg_proc pointer if you are accessing the pg_proc
  295.    table, or Form_pg_type if you are accessing pg_type. You can then
  296.    access the columns by using a structure pointer:
  297.         ((Form_pg_class) GETSTRUCT(tuple))->relnatts
  298.    You should not directly change live tuples in this way. The best way
  299.    is to use heap_tuplemodify() and pass it your palloc'ed tuple, and the
  300.    values you want changed. It returns another palloc'ed tuple, which you
  301.    pass to heap_replace(). You can delete tuples by passing the tuple's
  302.    t_self to heap_destroy(). Remember, tuples can be either system cache
  303.    versions, which may go away soon after you get them, buffer cache
  304.    version, which will go away when you heap_getnext(), heap_endscan, or
  305.    ReleaseBuffer(), in the heap_fetch() case. Or it may be a palloc'ed
  306.    tuple, that you must pfree() when finished.
  307.    
  308.   10) What is elog()?
  309.   
  310.    elog() is used to send messages to the front-end, and optionally
  311.    terminate the current query being processed. The first parameter is an
  312.    elog level of NOTICE, DEBUG, ERROR, or FATAL. NOTICE prints on the
  313.    user's terminal and the postmaster logs. DEBUG prints only in the
  314.    postmaster logs. ERROR prints in both places, and terminates the
  315.    current query, never returning from the call. FATAL terminates the
  316.    backend process. The remaining parameters of elog are a printf-style
  317.    set of parameters to print.
  318.    
  319.   11) What is configure all about?
  320.   
  321.    The files configure and configure.in are part of the GNU autoconf
  322.    package. Configure allows us to test for various capabilities of the
  323.    OS, and to set variables that can then be tested in C programs and
  324.    Makefiles. Autoconf is installed on the PostgreSQL main server. To add
  325.    options to configure, edit configure.in, and then run autoconf to
  326.    generate configure.
  327.    
  328.    When configure is run by the user, it tests various OS capabilities,
  329.    stores those in config.status and config.cache, and modifies a list of
  330.    *.in files. For example, if there exists a Makefile.in, configure
  331.    generates a Makefile that contains substitutions for all @var@
  332.    parameters found by configure.
  333.    
  334.    When you need to edit files, make sure you don't waste time modifying
  335.    files generated by configure. Edit the *.in file, and re-run configure
  336.    to recreate the needed file. If you run make distclean from the
  337.    top-level source directory, all files derived by configure are
  338.    removed, so you see only the file contained in the source
  339.    distribution.
  340.    
  341.   12) How do I add a new port?
  342.   
  343.    There are a variety of places that need to be modified to add a new
  344.    port. First, start in the src/template directory. Add an appropriate
  345.    entry for your OS. Also, use src/config.guess to add your OS to
  346.    src/template/.similar. You shouldn't match the OS version exactly. The
  347.    configure test will look for an exact OS version number, and if not
  348.    found, find a match without version number. Edit src/configure.in to
  349.    add your new OS. (See configure item above.) You will need to run
  350.    autoconf, or patch src/configure too.
  351.    
  352.    Then, check src/include/port and add your new OS file, with
  353.    appropriate values. Hopefully, there is already locking code in
  354.    src/include/storage/s_lock.h for your CPU. There is also a
  355.    src/makefiles directory for port-specific Makefile handling. There is
  356.    a backend/port directory if you need special files for your OS.