[BACK]Return to locore.S CVS log [TXT][DIR] Up to [cvs.NetBSD.org] / src / sys / arch / i386 / i386

Please note that diffs are not public domain; they are subject to the copyright notices on the relevant files.

Diff for /src/sys/arch/i386/i386/locore.S between version 1.102.2.3 and 1.103

version 1.102.2.3, 2017/12/03 11:36:17 version 1.103, 2012/10/26 14:46:44
Line 5 
Line 5 
  */   */
   
 /*  /*
  * Copyright (c) 1998, 2000, 2004, 2006, 2007, 2009, 2016  
  * The NetBSD Foundation, Inc., All rights reserved.  
  *  
  * This code is derived from software contributed to The NetBSD Foundation  
  * by Charles M. Hannum, by Andrew Doran and by Maxime Villard.  
  *  
  * Redistribution and use in source and binary forms, with or without  
  * modification, are permitted provided that the following conditions  
  * are met:  
  * 1. Redistributions of source code must retain the above copyright  
  *    notice, this list of conditions and the following disclaimer.  
  * 2. Redistributions in binary form must reproduce the above copyright  
  *    notice, this list of conditions and the following disclaimer in the  
  *    documentation and/or other materials provided with the distribution.  
  *  
  * THIS SOFTWARE IS PROVIDED BY THE NETBSD FOUNDATION, INC. AND CONTRIBUTORS  
  * ``AS IS'' AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED  
  * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR  
  * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL THE FOUNDATION OR CONTRIBUTORS  
  * BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR  
  * CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF  
  * SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS  
  * INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN  
  * CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)  
  * ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE  
  * POSSIBILITY OF SUCH DAMAGE.  
  */  
   
 /*  
  * Copyright (c) 2006 Manuel Bouyer.   * Copyright (c) 2006 Manuel Bouyer.
  *   *
  * Redistribution and use in source and binary forms, with or without   * Redistribution and use in source and binary forms, with or without
Line 93 
Line 64 
  * POSSIBILITY OF SUCH DAMAGE.   * POSSIBILITY OF SUCH DAMAGE.
  */   */
   
   
   /*-
    * Copyright (c) 1998, 2000, 2004, 2006, 2007, 2009 The NetBSD Foundation, Inc.
    * All rights reserved.
    *
    * This code is derived from software contributed to The NetBSD Foundation
    * by Charles M. Hannum, and by Andrew Doran.
    *
    * Redistribution and use in source and binary forms, with or without
    * modification, are permitted provided that the following conditions
    * are met:
    * 1. Redistributions of source code must retain the above copyright
    *    notice, this list of conditions and the following disclaimer.
    * 2. Redistributions in binary form must reproduce the above copyright
    *    notice, this list of conditions and the following disclaimer in the
    *    documentation and/or other materials provided with the distribution.
    *
    * THIS SOFTWARE IS PROVIDED BY THE NETBSD FOUNDATION, INC. AND CONTRIBUTORS
    * ``AS IS'' AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
    * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
    * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL THE FOUNDATION OR CONTRIBUTORS
    * BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR
    * CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF
    * SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS
    * INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN
    * CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)
    * ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE
    * POSSIBILITY OF SUCH DAMAGE.
    */
   
 /*-  /*-
  * Copyright (c) 1990 The Regents of the University of California.   * Copyright (c) 1990 The Regents of the University of California.
  * All rights reserved.   * All rights reserved.
Line 130 
Line 131 
 #include <machine/asm.h>  #include <machine/asm.h>
 __KERNEL_RCSID(0, "$NetBSD$");  __KERNEL_RCSID(0, "$NetBSD$");
   
 #include "opt_copy_symtab.h"  #include "opt_compat_oldboot.h"
 #include "opt_ddb.h"  #include "opt_ddb.h"
 #include "opt_modular.h"  #include "opt_modular.h"
 #include "opt_multiboot.h"  #include "opt_multiboot.h"
 #include "opt_realmem.h"  #include "opt_realmem.h"
   #include "opt_vm86.h"
 #include "opt_xen.h"  #include "opt_xen.h"
   
   #include "npx.h"
 #include "assym.h"  #include "assym.h"
 #include "lapic.h"  #include "lapic.h"
 #include "ioapic.h"  #include "ioapic.h"
Line 145  __KERNEL_RCSID(0, "$NetBSD$");
Line 148  __KERNEL_RCSID(0, "$NetBSD$");
 #include <sys/errno.h>  #include <sys/errno.h>
 #include <sys/syscall.h>  #include <sys/syscall.h>
   
   #include <machine/cputypes.h>
 #include <machine/segments.h>  #include <machine/segments.h>
 #include <machine/specialreg.h>  #include <machine/specialreg.h>
 #include <machine/trap.h>  #include <machine/trap.h>
 #include <machine/i82489reg.h>  #include <machine/i82489reg.h>
 #include <machine/frameasm.h>  #include <machine/frameasm.h>
 #include <machine/i82489reg.h>  #include <machine/i82489reg.h>
 #include <machine/cputypes.h>  
   
 #ifndef XEN  #ifndef XEN
 #include <machine/multiboot.h>  #include <machine/multiboot.h>
 #endif  #endif
   
   /* XXX temporary kluge; these should not be here */
 /* Get definitions for IOM_BEGIN, IOM_END, and IOM_SIZE */  /* Get definitions for IOM_BEGIN, IOM_END, and IOM_SIZE */
 #include <dev/isa/isareg.h>  #include <dev/isa/isareg.h>
   
 #ifndef XEN  
 #define _RELOC(x)       ((x) - KERNBASE)  
 #else  
 #define _RELOC(x)       ((x))  
 #endif /* XEN */  
 #define RELOC(x)        _RELOC(_C_LABEL(x))  
   
 /* 32bit version of PG_NX */  
 #define PG_NX32 0x80000000  
   
 #ifndef PAE  
 #define PROC0_PDIR_OFF  0  
 #else  
 #define PROC0_L3_OFF    0  
 #define PROC0_PDIR_OFF  1 * PAGE_SIZE  
 #endif  
   
 #define PROC0_STK_OFF   (PROC0_PDIR_OFF + PDP_SIZE * PAGE_SIZE)  
 #define PROC0_PTP1_OFF  (PROC0_STK_OFF + UPAGES * PAGE_SIZE)  
   
 /*  
  * fillkpt - Fill in a kernel page table  
  *      eax = pte (page frame | control | status)  
  *      ebx = page table address  
  *      ecx = number of pages to map  
  *  
  * For PAE, each entry is 8 bytes long: we must set the 4 upper bytes to 0.  
  * This is done by the first instruction of fillkpt. In the non-PAE case, this  
  * instruction just clears the page table entry.  
  */  
 #define fillkpt \  
         cmpl    $0,%ecx                 ;       /* zero-sized? */       \  
         je      2f                      ; \  
 1:      movl    $0,(PDE_SIZE-4)(%ebx)   ;       /* upper 32 bits: 0 */  \  
         movl    %eax,(%ebx)             ;       /* store phys addr */   \  
         addl    $PDE_SIZE,%ebx          ;       /* next PTE/PDE */      \  
         addl    $PAGE_SIZE,%eax         ;       /* next phys page */    \  
         loop    1b                      ; \  
 2:                                      ;  
   
 /*  
  * fillkpt_nox - Same as fillkpt, but sets the NX/XD bit.  
  */  
 #define fillkpt_nox \  
         cmpl    $0,%ecx                 ;       /* zero-sized? */       \  
         je      2f                      ; \  
         pushl   %ebp                    ; \  
         movl    RELOC(nox_flag),%ebp    ; \  
 1:      movl    %ebp,(PDE_SIZE-4)(%ebx) ;       /* upper 32 bits: NX */ \  
         movl    %eax,(%ebx)             ;       /* store phys addr */   \  
         addl    $PDE_SIZE,%ebx          ;       /* next PTE/PDE */      \  
         addl    $PAGE_SIZE,%eax         ;       /* next phys page */    \  
         loop    1b                      ; \  
         popl    %ebp                    ; \  
 2:                                      ;  
   
 /*  
  * fillkpt_blank - Fill in a kernel page table with blank entries  
  *      ebx = page table address  
  *      ecx = number of pages to map  
  */  
 #define fillkpt_blank   \  
         cmpl    $0,%ecx                 ;       /* zero-sized? */       \  
         je      2f                      ; \  
 1:      movl    $0,(PDE_SIZE-4)(%ebx)   ;       /* upper 32 bits: 0 */  \  
         movl    $0,(%ebx)               ;       /* lower 32 bits: 0 */  \  
         addl    $PDE_SIZE,%ebx          ;       /* next PTE/PDE */      \  
         loop    1b                      ; \  
 2:                                      ;  
   
 /*  
  * killkpt - Destroy a kernel page table  
  *      ebx = page table address  
  *      ecx = number of pages to destroy  
  */  
 #define killkpt \  
 1:      movl    $0,(PDE_SIZE-4)(%ebx)   ;       /* upper bits (for PAE) */ \  
         movl    $0,(%ebx)               ; \  
         addl    $PDE_SIZE,%ebx          ; \  
         loop    1b                      ;  
   
   
 #ifdef XEN  #ifdef XEN
 /*  /*
  * Xen guest identifier and loader selection   * Xen guest identifier and loader selection
  */   */
 .section __xen_guest  .section __xen_guest
         .ascii  "GUEST_OS=netbsd,GUEST_VER=3.0,XEN_VER=xen-3.0"          .ascii  "GUEST_OS=netbsd,GUEST_VER=3.0,XEN_VER=xen-3.0"
         .ascii  ",VIRT_BASE=0xc0000000" /* KERNBASE */          .ascii  ",VIRT_BASE=0xc0000000" /* KERNBASE */
         .ascii  ",ELF_PADDR_OFFSET=0xc0000000" /* KERNBASE */          .ascii  ",ELF_PADDR_OFFSET=0xc0000000" /* KERNBASE */
         .ascii  ",VIRT_ENTRY=0xc0100000" /* KERNTEXTOFF */          .ascii  ",VIRT_ENTRY=0xc0100000" /* KERNTEXTOFF */
         .ascii  ",HYPERCALL_PAGE=0x00000101"          .ascii  ",HYPERCALL_PAGE=0x00000101"
                 /* (???+HYPERCALL_PAGE_OFFSET)/PAGE_SIZE) */                  /* (???+HYPERCALL_PAGE_OFFSET)/PAGE_SIZE) */
 #ifdef PAE  #ifdef PAE
         .ascii  ",PAE=yes[extended-cr3]"          .ascii  ",PAE=yes[extended-cr3]"
 #endif  #endif
         .ascii  ",LOADER=generic"          .ascii  ",LOADER=generic"
 #if (NKSYMS || defined(DDB) || defined(MODULAR)) && !defined(makeoptions_COPY_SYMTAB)  #if (NKSYMS || defined(DDB) || defined(MODULAR)) && !defined(SYMTAB_SPACE)
         .ascii  ",BSD_SYMTAB=yes"          .ascii  ",BSD_SYMTAB=yes"
 #endif  #endif
         .byte   0          .byte   0
 #endif  /* XEN */  #endif
   
 /*  /*
  * Initialization   * Initialization
  */   */
         .data          .data
   
         .globl  _C_LABEL(tablesize)  
         .globl  _C_LABEL(nox_flag)  
         .globl  _C_LABEL(cputype)          .globl  _C_LABEL(cputype)
         .globl  _C_LABEL(cpuid_level)          .globl  _C_LABEL(cpuid_level)
         .globl  _C_LABEL(esym)          .globl  _C_LABEL(esym)
         .globl  _C_LABEL(eblob)          .globl  _C_LABEL(eblob)
         .globl  _C_LABEL(atdevbase)          .globl  _C_LABEL(atdevbase)
         .globl  _C_LABEL(PDPpaddr)          .globl  _C_LABEL(lwp0uarea),_C_LABEL(PDPpaddr)
         .globl  _C_LABEL(lwp0uarea)  
         .globl  _C_LABEL(gdt)          .globl  _C_LABEL(gdt)
         .globl  _C_LABEL(idt)          .globl  _C_LABEL(idt)
           .globl  _C_LABEL(lapic_tpr)
   
         .type   _C_LABEL(tablesize), @object  #if NLAPIC > 0
   #ifdef __ELF__
           .align  PAGE_SIZE
   #else
           .align  12
   #endif
           .globl _C_LABEL(local_apic), _C_LABEL(lapic_id)
   _C_LABEL(local_apic):
           .space  LAPIC_ID
   _C_LABEL(lapic_id):
           .long   0x00000000
           .space  LAPIC_TPRI-(LAPIC_ID+4)
   _C_LABEL(lapic_tpr):
           .space  LAPIC_PPRI-LAPIC_TPRI
   _C_LABEL(lapic_ppr):
           .space  LAPIC_ISR-LAPIC_PPRI
   _C_LABEL(lapic_isr):
           .space  PAGE_SIZE-LAPIC_ISR
   #else
   _C_LABEL(lapic_tpr):
           .long 0
   #endif
   
   _C_LABEL(cputype):      .long   0       # are we 80486, Pentium, or..
   _C_LABEL(cpuid_level):  .long   0
   _C_LABEL(atdevbase):    .long   0       # location of start of iomem in virtual
   _C_LABEL(lwp0uarea):    .long   0
   _C_LABEL(PDPpaddr):     .long   0       # paddr of PDP, for libkvm
 _C_LABEL(tablesize):    .long   0  _C_LABEL(tablesize):    .long   0
 END(tablesize)  
         .type   _C_LABEL(nox_flag), @object          .space 512
 LABEL(nox_flag)         .long   0       /* 32bit NOX flag, set if supported */  
 END(nox_flag)  
         .type   _C_LABEL(cputype), @object  
 LABEL(cputype)          .long   0       /* are we 80486, Pentium, or.. */  
 END(cputype)  
         .type   _C_LABEL(cpuid_level), @object  
 LABEL(cpuid_level)      .long   -1      /* max. level accepted by cpuid instr */  
 END(cpuid_level)  
         .type   _C_LABEL(atdevbase), @object  
 LABEL(atdevbase)        .long   0       /* location of start of iomem in virt */  
 END(atdevbase)  
         .type   _C_LABEL(lwp0uarea), @object  
 LABEL(lwp0uarea)        .long   0  
 END(lwp0uarea)  
         .type   _C_LABEL(PDPpaddr), @object  
 LABEL(PDPpaddr)         .long   0       /* paddr of PDP, for libkvm */  
 END(PDPpaddr)  
   
         /* Space for the temporary stack */  
         .size   tmpstk, tmpstk - .  
         .space  512  
 tmpstk:  tmpstk:
 #ifdef XEN  #ifdef XEN
         .align          PAGE_SIZE, 0x0  /* Align on page boundary */          .align          PAGE_SIZE, 0x0  # Align on page boundary
 LABEL(tmpgdt)          .globl tmpgdt
         .space          PAGE_SIZE       /* Xen expects a page */  _C_LABEL(tmpgdt):
 END(tmpgdt)          .space          PAGE_SIZE       # Xen expects a page
   #endif /* XEN */
   #ifndef XEN
   #define _RELOC(x)       ((x) - KERNBASE)
   #else
   #define _RELOC(x)       ((x))
 #endif /* XEN */  #endif /* XEN */
   #define RELOC(x)        _RELOC(_C_LABEL(x))
   
         .text          .text
         .globl  _C_LABEL(kernel_text)          .globl  _C_LABEL(kernel_text)
         .set    _C_LABEL(kernel_text),KERNTEXTOFF          .set    _C_LABEL(kernel_text),KERNTEXTOFF
   
 ENTRY(start)          .globl  start
 #ifndef XEN  #ifndef XEN
   start:  movw    $0x1234,0x472                   # warm boot
         /* Warm boot */  
         movw    $0x1234,0x472  
   
 #if defined(MULTIBOOT)  #if defined(MULTIBOOT)
         jmp     1f          jmp     1f
Line 341  _C_LABEL(Multiboot_Header):
Line 270  _C_LABEL(Multiboot_Header):
         jne     1f          jne     1f
   
         /*          /*
          * Indeed, a multiboot-compliant boot loader executed us. We switch           * Indeed, a multiboot-compliant boot loader executed us.  We copy
          * to the temporary stack, and copy the received Multiboot information           * the received Multiboot information structure into kernel's data
          * structure into kernel's data space to process it later -- after we           * space to process it later -- after we are relocated.  It will
          * are relocated. It will be safer to run complex C code than doing it           * be safer to run complex C code than doing it at this point.
          * at this point.  
          */           */
         movl    $_RELOC(tmpstk),%esp          pushl   %ebx            # Address of Multiboot information
         pushl   %ebx            /* Address of Multiboot information */  
         call    _C_LABEL(multiboot_pre_reloc)          call    _C_LABEL(multiboot_pre_reloc)
         addl    $4,%esp          addl    $4,%esp
         jmp     2f          jmp     2f
Line 357  _C_LABEL(Multiboot_Header):
Line 284  _C_LABEL(Multiboot_Header):
 1:  1:
         /*          /*
          * At this point, we know that a NetBSD-specific boot loader           * At this point, we know that a NetBSD-specific boot loader
          * booted this kernel.           * booted this kernel.  The stack carries the following parameters:
          *           * (boothowto, [bootdev], bootinfo, esym, biosextmem, biosbasemem),
          * Load parameters from the stack (32 bits):           * 4 bytes each.
          *     boothowto, [bootdev], bootinfo, esym, biosextmem, biosbasemem  
          * We are not interested in 'bootdev'.  
          */           */
           addl    $4,%esp         # Discard return address to boot loader
         addl    $4,%esp         /* Discard return address to boot loader */  
         call    _C_LABEL(native_loader)          call    _C_LABEL(native_loader)
         addl    $24,%esp          addl    $24,%esp
   
Line 377  _C_LABEL(Multiboot_Header):
Line 301  _C_LABEL(Multiboot_Header):
         xorl    %eax,%eax          xorl    %eax,%eax
         movw    %ax,%fs          movw    %ax,%fs
         movw    %ax,%gs          movw    %ax,%gs
           decl    %eax
           movl    %eax,RELOC(cpuid_level)
   
         /* Find out our CPU type. */          /* Find out our CPU type. */
   
Line 454  is486: movl $CPU_486,RELOC(cputype)
Line 380  is486: movl $CPU_486,RELOC(cputype)
         popfl          popfl
         jmp 2f          jmp 2f
 trycyrix486:  trycyrix486:
         movl    $CPU_6x86,RELOC(cputype)        /* set CPU type */          movl    $CPU_6x86,RELOC(cputype)        # set CPU type
         /*          /*
          * Check for Cyrix 486 CPU by seeing if the flags change during a           * Check for Cyrix 486 CPU by seeing if the flags change during a
          * divide. This is documented in the Cx486SLC/e SMM Programmer's           * divide. This is documented in the Cx486SLC/e SMM Programmer's
          * Guide.           * Guide.
          */           */
         xorl    %edx,%edx          xorl    %edx,%edx
         cmpl    %edx,%edx               /* set flags to known state */          cmpl    %edx,%edx               # set flags to known state
         pushfl          pushfl
         popl    %ecx                    /* store flags in ecx */          popl    %ecx                    # store flags in ecx
         movl    $-1,%eax          movl    $-1,%eax
         movl    $4,%ebx          movl    $4,%ebx
         divl    %ebx                    /* do a long division */          divl    %ebx                    # do a long division
         pushfl          pushfl
         popl    %eax          popl    %eax
         xorl    %ecx,%eax               /* are the flags different? */          xorl    %ecx,%eax               # are the flags different?
         testl   $0x8d5,%eax             /* only check C|PF|AF|Z|N|V */          testl   $0x8d5,%eax             # only check C|PF|AF|Z|N|V
         jne     2f                      /* yes; must be Cyrix 6x86 CPU */          jne     2f                      # yes; must be Cyrix 6x86 CPU
         movl    $CPU_486DLC,RELOC(cputype)      /* set CPU type */          movl    $CPU_486DLC,RELOC(cputype)      # set CPU type
   
 #ifndef CYRIX_CACHE_WORKS  #ifndef CYRIX_CACHE_WORKS
         /* Disable caching of the ISA hole only. */          /* Disable caching of the ISA hole only. */
         invd          invd
         movb    $CCR0,%al       /* Configuration Register index (CCR0) */          movb    $CCR0,%al               # Configuration Register index (CCR0)
         outb    %al,$0x22          outb    %al,$0x22
         inb     $0x23,%al          inb     $0x23,%al
         orb     $(CCR0_NC1|CCR0_BARB),%al          orb     $(CCR0_NC1|CCR0_BARB),%al
Line 489  trycyrix486:
Line 415  trycyrix486:
         invd          invd
 #else /* CYRIX_CACHE_WORKS */  #else /* CYRIX_CACHE_WORKS */
         /* Set cache parameters */          /* Set cache parameters */
         invd                    /* Start with guaranteed clean cache */          invd                            # Start with guaranteed clean cache
         movb    $CCR0,%al       /* Configuration Register index (CCR0) */          movb    $CCR0,%al               # Configuration Register index (CCR0)
         outb    %al,$0x22          outb    %al,$0x22
         inb     $0x23,%al          inb     $0x23,%al
         andb    $~CCR0_NC0,%al          andb    $~CCR0_NC0,%al
Line 538  try586: /* Use the `cpuid' instruction. 
Line 464  try586: /* Use the `cpuid' instruction. 
         cpuid          cpuid
         movl    %eax,RELOC(cpuid_level)          movl    %eax,RELOC(cpuid_level)
   
         /*  
          * Retrieve the NX/XD flag. We use the 32bit version of PG_NX.  
          */  
         movl    $0x80000001,%eax  
         cpuid  
         andl    $CPUID_NOX,%edx  
         jz      no_NOX  
         movl    $PG_NX32,RELOC(nox_flag)  
 no_NOX:  
   
 2:  2:
         /*          /*
          * Finished with old stack; load new %esp now instead of later so we           * Finished with old stack; load new %esp now instead of later so we
Line 558  no_NOX:
Line 474  no_NOX:
          * The boot program should check:           * The boot program should check:
          *      text+data <= &stack_variable - more_space_for_stack           *      text+data <= &stack_variable - more_space_for_stack
          *      text+data+bss+pad+space_for_page_tables <= end_of_memory           *      text+data+bss+pad+space_for_page_tables <= end_of_memory
          *           * Oops, the gdt is in the carcass of the boot program so clearing
          * XXX: the gdt is in the carcass of the boot program so clearing  
          * the rest of memory is still not possible.           * the rest of memory is still not possible.
          */           */
         movl    $_RELOC(tmpstk),%esp          movl    $_RELOC(tmpstk),%esp    # bootstrap stack end location
   
 /*  /*
  * There are two different layouts possible, depending on whether PAE is   * Virtual address space of kernel, without PAE. The page dir is 1 page long.
  * enabled or not.  
  *  
  * If PAE is not enabled, there are two levels of pages: PD -> PT. They will  
  * be referred to as: L2 -> L1. L2 is 1 page long. The BOOTSTRAP TABLES have  
  * the following layout:  
  *      +-----+------------+----+  
  *      | L2 -> PROC0 STK -> L1 |  
  *      +-----+------------+----+  
  *  
  * If PAE is enabled, there are three levels of pages: PDP -> PD -> PT. They  
  * will be referred to as: L3 -> L2 -> L1. L3 is 1 page long, L2 is 4 page  
  * long. The BOOTSTRAP TABLES have the following layout:  
  *      +-----+-----+------------+----+  
  *      | L3 -> L2 -> PROC0 STK -> L1 |  
  *      +-----+-----+------------+----+  
  *  
  * Virtual address space of the kernel in both cases:  
  * +------+--------+------+-----+--------+---------------------+-----------  
  * | TEXT | RODATA | DATA | BSS | [SYMS] | [PRELOADED MODULES] | BOOTSTRAP  
  * +------+--------+------+-----+--------+---------------------+-----------  
  *                             (1)      (2)                   (3)  
  *   *
  * -------+-------------+   * text | data | bss | [syms] | [blobs] | page dir | proc0 kstack | L1 ptp
  * TABLES | ISA I/O MEM |   *                                      0          1       2      3
  * -------+-------------+  
  *       (4)  
  *   *
  * PROC0 STK is obviously not linked as a page level. It just happens to be   * Virtual address space of kernel, with PAE. We need 4 pages for the page dir
  * caught between L2 and L1.   * and 1 page for the L3.
  *   * text | data | bss | [syms] | [blobs] | L3 | page dir | proc0 kstack | L1 ptp
  * Important note: the kernel segments are properly 4k-aligned   *                                      0    1          5       6      7
  * (see kern.ldscript), so there's no need to enforce alignment.  
  */   */
   #ifndef PAE
   #define PROC0_PDIR_OFF  0
   #else
   #define PROC0_L3_OFF    0
   #define PROC0_PDIR_OFF  1 * PAGE_SIZE
   #endif
   
         /* Find end of kernel image; brings us on (1). */  #define PROC0_STK_OFF   (PROC0_PDIR_OFF + PDP_SIZE * PAGE_SIZE)
         movl    $RELOC(__kernel_end),%edi  #define PROC0_PTP1_OFF  (PROC0_STK_OFF + UPAGES * PAGE_SIZE)
   
 #if (NKSYMS || defined(DDB) || defined(MODULAR)) && !defined(makeoptions_COPY_SYMTAB)  /*
         /* Save the symbols (if loaded); brinds us on (2). */   * fillkpt - Fill in a kernel page table
    *      eax = pte (page frame | control | status)
    *      ebx = page table address
    *      ecx = number of pages to map
    *
    * For PAE, each entry is 8 bytes long: we must set the 4 upper bytes to 0.
    * This is done by the first instruction of fillkpt. In the non-PAE case, this
    * instruction just clears the page table entry.
    */
   
   #define fillkpt \
   1:      movl    $0,(PDE_SIZE-4)(%ebx)   ;       /* clear bits */        \
           movl    %eax,(%ebx)             ;       /* store phys addr */   \
           addl    $PDE_SIZE,%ebx          ;       /* next pte/pde */      \
           addl    $PAGE_SIZE,%eax         ;       /* next phys page */    \
           loop    1b                      ;
   
           /* Find end of kernel image. */
           movl    $RELOC(end),%edi
   
   #if (NKSYMS || defined(DDB) || defined(MODULAR)) && !defined(SYMTAB_SPACE)
           /* Save the symbols (if loaded). */
         movl    RELOC(esym),%eax          movl    RELOC(esym),%eax
         testl   %eax,%eax          testl   %eax,%eax
         jz      1f          jz      1f
Line 613  no_NOX:
Line 531  no_NOX:
 1:  1:
 #endif  #endif
   
         /* Skip over any modules/blobs; brings us on (3). */          /* Skip over any modules/blobs. */
         movl    RELOC(eblob),%eax          movl    RELOC(eblob),%eax
         testl   %eax,%eax          testl   %eax,%eax
         jz      1f          jz      1f
         subl    $KERNBASE,%eax          subl    $KERNBASE,%eax
         movl    %eax,%edi          movl    %eax,%edi
 1:  1:
           /* Compute sizes */
         /* We are on (3). Align up for BOOTSTRAP TABLES. */  
         movl    %edi,%esi          movl    %edi,%esi
         addl    $PGOFSET,%esi          addl    $PGOFSET,%esi                   # page align up
         andl    $~PGOFSET,%esi          andl    $~PGOFSET,%esi
   
         /* nkptp[1] = (esi + ~L2_FRAME) >> L2_SHIFT + 1; */          /* nkptp[1] = (esi + ~L2_FRAME) >> L2_SHIFT + 1; */
         movl    %esi,%eax          movl    %esi,%eax
         addl    $~L2_FRAME,%eax          addl    $~L2_FRAME,%eax
         shrl    $L2_SHIFT,%eax          shrl    $L2_SHIFT,%eax
         incl    %eax            /* one more PTP for VAs stolen by bootstrap */          incl    %eax            /* one more ptp for VAs stolen by bootstrap */
 1:      movl    %eax,RELOC(nkptp)+1*4  1:      movl    %eax,RELOC(nkptp)+1*4
   
         /* tablesize = (PDP_SIZE + UPAGES + nkptp[1]) << PGSHIFT; */          /* tablesize = (PDP_SIZE + UPAGES + nkptp) << PGSHIFT; */
         addl    $(PDP_SIZE+UPAGES),%eax          addl    $(PDP_SIZE+UPAGES),%eax
 #ifdef PAE  #ifdef PAE
         incl    %eax            /* one more page for L3 */          incl    %eax            /* one more page for the L3 PD */
         shll    $PGSHIFT+1,%eax /* PTP tables are twice larger with PAE */          shll    $PGSHIFT+1,%eax /* PTP tables are twice larger with PAE */
 #else  #else
         shll    $PGSHIFT,%eax          shll    $PGSHIFT,%eax
 #endif  #endif
         movl    %eax,RELOC(tablesize)          movl    %eax,RELOC(tablesize)
   
         /* Ensure that nkptp[1] covers BOOTSTRAP TABLES, ie:          /* ensure that nkptp covers bootstrap tables */
          * (esi + tablesize) >> L2_SHIFT + 1 < nkptp[1] */  
         addl    %esi,%eax          addl    %esi,%eax
         addl    $~L2_FRAME,%eax          addl    $~L2_FRAME,%eax
         shrl    $L2_SHIFT,%eax          shrl    $L2_SHIFT,%eax
Line 652  no_NOX:
Line 568  no_NOX:
         cmpl    %eax,RELOC(nkptp)+1*4          cmpl    %eax,RELOC(nkptp)+1*4
         jnz     1b          jnz     1b
   
         /* Now, zero out the BOOTSTRAP TABLES (before filling them in). */          /* Clear tables */
         movl    %esi,%edi          movl    %esi,%edi
         xorl    %eax,%eax          xorl    %eax,%eax
         cld          cld
         movl    RELOC(tablesize),%ecx          movl    RELOC(tablesize),%ecx
         shrl    $2,%ecx          shrl    $2,%ecx
         rep          rep
         stosl                           /* copy eax -> edi */          stosl
   
           leal    (PROC0_PTP1_OFF)(%esi), %ebx
   
 /*  /*
  * Build the page tables and levels. We go from L1 to L2/L3, and link the levels   * Build initial page tables.
  * together. Note: RELOC computes &addr - KERNBASE in 32 bits; the value can't  
  * be > 4G, or we can't deal with it anyway, since we are in 32bit mode.  
  */   */
         /*          /*
          * Build L1.           * Compute &__data_start - KERNBASE. This can't be > 4G,
          */           * or we can't deal with it anyway, since we can't load it in
         leal    (PROC0_PTP1_OFF)(%esi),%ebx           * 32 bit mode. So use the bottom 32 bits.
            */
           movl    $RELOC(__data_start),%edx
           andl    $~PGOFSET,%edx
   
         /* Skip the area below the kernel text. */          /*
         movl    $(KERNTEXTOFF - KERNBASE),%ecx           * Skip the first MB.
         shrl    $PGSHIFT,%ecx           */
         fillkpt_blank          movl    $_RELOC(KERNTEXTOFF),%eax
           movl    %eax,%ecx
           shrl    $(PGSHIFT-2),%ecx       /* ((n >> PGSHIFT) << 2) for # pdes */
   #ifdef PAE
           shll    $1,%ecx                 /* pdes are twice larger with PAE */
   #endif
           addl    %ecx,%ebx
   
         /* Map the kernel text RX. */          /* Map the kernel text read-only. */
         movl    $(KERNTEXTOFF - KERNBASE),%eax  /* start of TEXT */          movl    %edx,%ecx
         movl    $RELOC(__rodata_start),%ecx  
         subl    %eax,%ecx          subl    %eax,%ecx
         shrl    $PGSHIFT,%ecx          shrl    $PGSHIFT,%ecx
         orl     $(PG_V|PG_KR),%eax          orl     $(PG_V|PG_KR),%eax
         fillkpt          fillkpt
   
         /* Map the kernel rodata R. */          /* Map the data, BSS, and bootstrap tables read-write. */
         movl    $RELOC(__rodata_start),%eax          leal    (PG_V|PG_KW)(%edx),%eax
         movl    $RELOC(__data_start),%ecx          movl    RELOC(tablesize),%ecx
         subl    %eax,%ecx          addl    %esi,%ecx                               # end of tables
         shrl    $PGSHIFT,%ecx          subl    %edx,%ecx                               # subtract end of text
         orl     $(PG_V|PG_KR),%eax  
         fillkpt_nox  
   
         /* Map the kernel data+bss RW. */  
         movl    $RELOC(__data_start),%eax  
         movl    $RELOC(__kernel_end),%ecx  
         subl    %eax,%ecx  
         shrl    $PGSHIFT,%ecx  
         orl     $(PG_V|PG_KW),%eax  
         fillkpt_nox  
   
         /* Map [SYMS]+[PRELOADED MODULES] RW. */  
         movl    $RELOC(__kernel_end),%eax  
         movl    %esi,%ecx               /* start of BOOTSTRAP TABLES */  
         subl    %eax,%ecx  
         shrl    $PGSHIFT,%ecx  
         orl     $(PG_V|PG_KW),%eax  
         fillkpt_nox  
   
         /* Map the BOOTSTRAP TABLES RW. */  
         movl    %esi,%eax               /* start of BOOTSTRAP TABLES */  
         movl    RELOC(tablesize),%ecx   /* length of BOOTSTRAP TABLES */  
         shrl    $PGSHIFT,%ecx          shrl    $PGSHIFT,%ecx
         orl     $(PG_V|PG_KW),%eax          fillkpt
         fillkpt_nox  
   
         /* We are on (4). Map ISA I/O MEM RW. */          /* Map ISA I/O mem (later atdevbase) */
         movl    $IOM_BEGIN,%eax          movl    $(IOM_BEGIN|PG_V|PG_KW/*|PG_N*/),%eax   # having these bits set
         movl    $IOM_SIZE,%ecx  /* size of ISA I/O MEM */          movl    $(IOM_SIZE>>PGSHIFT),%ecx               # for this many pte s,
         shrl    $PGSHIFT,%ecx          fillkpt
         orl     $(PG_V|PG_KW/*|PG_N*/),%eax  
         fillkpt_nox  
   
         /*  /*
          * Build L2 for identity mapping. Linked to L1.   * Construct a page table directory.
          */   */
         leal    (PROC0_PDIR_OFF)(%esi),%ebx          /* Set up top level entries for identity mapping */
         leal    (PROC0_PTP1_OFF)(%esi),%eax          leal    (PROC0_PDIR_OFF)(%esi),%ebx
         orl     $(PG_V|PG_KW),%eax          leal    (PROC0_PTP1_OFF)(%esi),%eax
         movl    RELOC(nkptp)+1*4,%ecx          orl     $(PG_V|PG_KW), %eax
           movl    RELOC(nkptp)+1*4,%ecx
         fillkpt          fillkpt
   
         /* Set up L2 entries for actual kernel mapping */          /* Set up top level entries for actual kernel mapping */
         leal    (PROC0_PDIR_OFF + L2_SLOT_KERNBASE * PDE_SIZE)(%esi),%ebx          leal    (PROC0_PDIR_OFF + L2_SLOT_KERNBASE*PDE_SIZE)(%esi),%ebx
         leal    (PROC0_PTP1_OFF)(%esi),%eax          leal    (PROC0_PTP1_OFF)(%esi),%eax
         orl     $(PG_V|PG_KW),%eax          orl     $(PG_V|PG_KW), %eax
         movl    RELOC(nkptp)+1*4,%ecx          movl    RELOC(nkptp)+1*4,%ecx
         fillkpt          fillkpt
   
         /* Install recursive top level PDE */          /* Install a PDE recursively mapping page directory as a page table! */
         leal    (PROC0_PDIR_OFF + PDIR_SLOT_PTE * PDE_SIZE)(%esi),%ebx          leal    (PROC0_PDIR_OFF + PDIR_SLOT_PTE*PDE_SIZE)(%esi),%ebx
         leal    (PROC0_PDIR_OFF)(%esi),%eax          leal    (PROC0_PDIR_OFF)(%esi),%eax
         orl     $(PG_V|PG_KW),%eax          orl     $(PG_V|PG_KW),%eax
         movl    $PDP_SIZE,%ecx          movl    $PDP_SIZE,%ecx
         fillkpt_nox          fillkpt
   
 #ifdef PAE  #ifdef PAE
         /*          /* Fill in proc0 L3 page with entries pointing to the page dirs */
          * Build L3. Linked to L2.  
          */  
         leal    (PROC0_L3_OFF)(%esi),%ebx          leal    (PROC0_L3_OFF)(%esi),%ebx
         leal    (PROC0_PDIR_OFF)(%esi),%eax          leal    (PROC0_PDIR_OFF)(%esi),%eax
         orl     $(PG_V),%eax          orl     $(PG_V),%eax
Line 761  no_NOX:
Line 659  no_NOX:
         movl    %eax,%cr4          movl    %eax,%cr4
 #endif  #endif
   
         /* Save physical address of L2. */          /* Save phys. addr of PDP, for libkvm. */
         leal    (PROC0_PDIR_OFF)(%esi),%eax          leal    (PROC0_PDIR_OFF)(%esi),%eax
         movl    %eax,RELOC(PDPpaddr)          movl    %eax,RELOC(PDPpaddr)
   
         /*          /*
          * Startup checklist:           * Startup checklist:
          * 1. Load %cr3 with pointer to L2 (or L3 for PAE).           * 1. Load %cr3 with pointer to PDIR (or L3 PD page for PAE).
          */  
         movl    %esi,%eax  
         movl    %eax,%cr3  
   
         /*  
          * 2. Set NOX in EFER, if available.  
          */           */
         movl    RELOC(nox_flag),%ebx          movl    %esi,%eax               # phys address of ptd in proc 0
         cmpl    $0,%ebx          movl    %eax,%cr3               # load ptd addr into mmu
         je      skip_NOX  
         movl    $MSR_EFER,%ecx  
         rdmsr  
         xorl    %eax,%eax  
         orl     $(EFER_NXE),%eax  
         wrmsr  
 skip_NOX:  
   
         /*          /*
          * 3. Enable paging and the rest of it.           * 2. Enable paging and the rest of it.
          */           */
         movl    %cr0,%eax          movl    %cr0,%eax               # get control word
         orl     $(CR0_PE|CR0_PG|CR0_NE|CR0_TS|CR0_MP|CR0_WP|CR0_AM),%eax                                          # enable paging & NPX emulation
         movl    %eax,%cr0          orl     $(CR0_PE|CR0_PG|CR0_NE|CR0_TS|CR0_EM|CR0_MP|CR0_WP|CR0_AM),%eax
           movl    %eax,%cr0               # and page NOW!
   
         pushl   $begin                  /* jump to high mem */          pushl   $begin                  # jump to high mem
         ret          ret
   
 begin:  begin:
         /*          /*
          * We have arrived. There's no need anymore for the identity mapping in           * We have arrived.
          * low memory, remove it.           * There's no need anymore for the identity mapping in low
          */           * memory, remove it.
         movl    _C_LABEL(nkptp)+1*4,%ecx           */
         leal    (PROC0_PDIR_OFF)(%esi),%ebx     /* old, phys address of PDIR */          movl    _C_LABEL(nkptp)+1*4,%ecx
         addl    $(KERNBASE), %ebx               /* new, virt address of PDIR */          leal    (PROC0_PDIR_OFF)(%esi),%ebx     # old, phys address of PDIR
         killkpt          addl    $(KERNBASE), %ebx               # new, virtual address of PDIR
   1:      movl    $0,(PDE_SIZE-4)(%ebx)           # Upper bits (for PAE)
           movl    $0,(%ebx)
           addl    $PDE_SIZE,%ebx
           loop    1b
   
         /* Relocate atdevbase. */          /* Relocate atdevbase. */
         movl    $KERNBASE,%edx          movl    $KERNBASE,%edx
Line 812  begin:
Line 702  begin:
         movl    %edx,_C_LABEL(atdevbase)          movl    %edx,_C_LABEL(atdevbase)
   
         /* Set up bootstrap stack. */          /* Set up bootstrap stack. */
         leal    (PROC0_STK_OFF+KERNBASE)(%esi),%eax          leal    (PROC0_STK_OFF+KERNBASE)(%esi),%eax
         movl    %eax,_C_LABEL(lwp0uarea)          movl    %eax,_C_LABEL(lwp0uarea)
         leal    (USPACE-FRAMESIZE)(%eax),%esp          leal    (KSTACK_SIZE-FRAMESIZE)(%eax),%esp
         movl    %esi,PCB_CR3(%eax)      /* pcb->pcb_cr3 */          movl    %esi,(KSTACK_SIZE+PCB_CR3)(%eax)        # pcb->pcb_cr3
         xorl    %ebp,%ebp               /* mark end of frames */          xorl    %ebp,%ebp               # mark end of frames
   
 #if defined(MULTIBOOT)  #if defined(MULTIBOOT)
         /* It is now safe to parse the Multiboot information structure          /* It is now safe to parse the Multiboot information structure
Line 826  begin:
Line 716  begin:
         call    _C_LABEL(multiboot_post_reloc)          call    _C_LABEL(multiboot_post_reloc)
 #endif  #endif
   
         subl    $NGDT*8, %esp           /* space for temporary gdt */          subl    $NGDT*8, %esp           # space for temporary gdt
         pushl   %esp          pushl   %esp
         call    _C_LABEL(initgdt)          call    _C_LABEL(initgdt)
         addl    $4,%esp          addl    $4,%esp
   
         movl    _C_LABEL(tablesize),%eax          movl    _C_LABEL(tablesize),%eax
         addl    %esi,%eax               /* skip past stack and page tables */          addl    %esi,%eax               # skip past stack and page tables
   
 #ifdef PAE  #ifdef PAE
         pushl   $0      /* init386() expects a 64 bits paddr_t with PAE */          pushl   $0      # init386() expects a 64 bits paddr_t with PAE
 #endif  #endif
         pushl   %eax          pushl   %eax
         call    _C_LABEL(init_bootspace)          call    _C_LABEL(init386)       # wire 386 chip for unix operation
         call    _C_LABEL(init386)          addl    $PDE_SIZE,%esp          # pop paddr_t
         addl    $PDE_SIZE,%esp          /* pop paddr_t */          addl    $NGDT*8,%esp            # pop temporary gdt
         addl    $NGDT*8,%esp            /* pop temporary gdt */  
   #ifdef SAFARI_FIFO_HACK
           movb    $5,%al
           movw    $0x37b,%dx
           outb    %al,%dx
           movw    $0x37f,%dx
           inb     %dx,%al
           movb    %al,%cl
   
           orb     $1,%cl
   
           movb    $5,%al
           movw    $0x37b,%dx
           outb    %al,%dx
           movw    $0x37f,%dx
           movb    %cl,%al
           outb    %al,%dx
   #endif /* SAFARI_FIFO_HACK */
   
         call    _C_LABEL(main)          call    _C_LABEL(main)
 #else /* XEN */  #else /* XEN */
   start:
         /* First, reset the PSL. */          /* First, reset the PSL. */
         pushl   $PSL_MBO          pushl   $PSL_MBO
         popfl          popfl
   
         cld          cld
           movl    %esp, %ebx              # save start of available space
           movl    $_RELOC(tmpstk),%esp    # bootstrap stack end location
   
         /*          /* Clear BSS first so that there are no surprises... */
          * Xen info:  
          * - %esp -> stack, *theoretically* the last used page by Xen bootstrap  
          */  
         movl    %esp,%ebx  
         movl    $_RELOC(tmpstk),%esp  
   
         /* Clear BSS. */  
         xorl    %eax,%eax          xorl    %eax,%eax
         movl    $RELOC(__bss_start),%edi          movl    $RELOC(__bss_start),%edi
         movl    $RELOC(_end),%ecx          movl    $RELOC(_end),%ecx
         subl    %edi,%ecx          subl    %edi,%ecx
         rep          rep stosb
         stosb  
   
         /* Copy the necessary stuff from start_info structure. */          /* Copy the necessary stuff from start_info structure. */
         /* We need to copy shared_info early, so that sti/cli work */          /* We need to copy shared_info early, so that sti/cli work */
         movl    $RELOC(start_info_union),%edi          movl    $RELOC(start_info_union),%edi
         movl    $128,%ecx          movl    $128,%ecx
         rep          rep movsl
         movsl  
   
         /* Clear segment registers. */          /* Clear segment registers; always null in proc0. */
         xorl    %eax,%eax          xorl    %eax,%eax
         movw    %ax,%fs          movw    %ax,%fs
         movw    %ax,%gs          movw    %ax,%gs
           decl    %eax
           movl    %eax,RELOC(cpuid_level)
   
         xorl    %eax,%eax          xorl    %eax,%eax
         cpuid          cpuid
         movl    %eax,RELOC(cpuid_level)          movl    %eax,RELOC(cpuid_level)
   
         /*          /*
          * Use a temporary GDT page. We'll re-add it to uvm(9) once we're done           * Use a temp page. We'll re- add it to uvm(9) once we're
          * using it.           * done using it.
          */           */
         movl    $RELOC(tmpgdt),%eax          movl    $RELOC(tmpgdt), %eax
         pushl   %eax            /* start of temporary gdt */          pushl   %eax            # start of temporary gdt
         call    _C_LABEL(initgdt)          call    _C_LABEL(initgdt)
         addl    $4,%esp          addl    $4,%esp
   
         call    xen_locore          call    xen_pmap_bootstrap
   
         /*          /*
          * The first VA available is returned by xen_locore in %eax. We           * First avail returned by xen_pmap_bootstrap in %eax
          * use it as the UAREA, and set up the stack here.  
          */           */
         movl    %eax,%esi          movl    %eax, %esi;
         movl    %esi,_C_LABEL(lwp0uarea)          movl    %esi, _C_LABEL(lwp0uarea)
         leal    (USPACE-FRAMESIZE)(%eax),%esp  
         xorl    %ebp,%ebp               /* mark end of frames */          /* Set up bootstrap stack. */
           leal    (KSTACK_SIZE-FRAMESIZE)(%eax),%esp
         /* Set first_avail after the DUMMY PAGE (see xen_locore). */          xorl    %ebp,%ebp               # mark end of frames
         addl    $(USPACE+PAGE_SIZE),%esi  
         subl    $KERNBASE,%esi          /* init386 wants a physical address */          addl    $USPACE, %esi
           subl    $KERNBASE, %esi         #init386 want a physical address
   
 #ifdef PAE  #ifdef PAE
         pushl   $0      /* init386() expects a 64 bits paddr_t with PAE */          pushl   $0      # init386() expects a 64 bits paddr_t with PAE
 #endif  #endif
         pushl   %esi          pushl   %esi
         call    _C_LABEL(init_bootspace)          call    _C_LABEL(init386)       # wire 386 chip for unix operation
         call    _C_LABEL(init386)          addl    $PDE_SIZE,%esp          # pop paddr_t
         addl    $PDE_SIZE,%esp          /* pop paddr_t */  
         call    _C_LABEL(main)          call    _C_LABEL(main)
 #endif /* XEN */  
 END(start)  
   
 #if defined(XEN)  #if defined(XEN)
 /* space for the hypercall call page */  /* space for the hypercall call page */
Line 923  END(start)
Line 823  END(start)
 .org HYPERCALL_PAGE_OFFSET  .org HYPERCALL_PAGE_OFFSET
 ENTRY(hypercall_page)  ENTRY(hypercall_page)
 .skip 0x1000  .skip 0x1000
 END(hypercall_page)  #endif /* defined(XEN) */
   
 /*  /*
  * void lgdt_finish(void);   * void lgdt_finish(void);
Line 956  END(lgdt_finish)
Line 856  END(lgdt_finish)
  *   *
  * This is a trampoline function pushed onto the stack of a newly created   * This is a trampoline function pushed onto the stack of a newly created
  * process in order to do some additional setup.  The trampoline is entered by   * process in order to do some additional setup.  The trampoline is entered by
  * cpu_switchto()ing to the process, so we abuse the callee-saved   * cpu_switch()ing to the process, so we abuse the callee-saved registers used
  * registers used by cpu_switchto() to store the information about the   * by cpu_switch() to store the information about the stub to call.
  * stub to call.  
  * NOTE: This function does not have a normal calling sequence!   * NOTE: This function does not have a normal calling sequence!
  */   */
 NENTRY(lwp_trampoline)  NENTRY(lwp_trampoline)
Line 986  NENTRY(sigcode)
Line 885  NENTRY(sigcode)
          * Handler has returned here as if we called it.  The sigcontext           * Handler has returned here as if we called it.  The sigcontext
          * is on the stack after the 3 args "we" pushed.           * is on the stack after the 3 args "we" pushed.
          */           */
         leal    12(%esp),%eax           /* get pointer to sigcontext */          leal    12(%esp),%eax           # get pointer to sigcontext
         movl    %eax,4(%esp)            /* put it in the argument slot */          movl    %eax,4(%esp)            # put it in the argument slot
                                         /* fake return address already there */                                          # fake return address already there
         movl    $SYS_compat_16___sigreturn14,%eax          movl    $SYS_compat_16___sigreturn14,%eax
         int     $0x80                   /* enter kernel with args on stack */          int     $0x80                   # enter kernel with args on stack
         movl    $SYS_exit,%eax          movl    $SYS_exit,%eax
         int     $0x80                   /* exit if sigreturn fails */          int     $0x80                   # exit if sigreturn fails
         .globl  _C_LABEL(esigcode)          .globl  _C_LABEL(esigcode)
 _C_LABEL(esigcode):  _C_LABEL(esigcode):
 END(sigcode)  END(sigcode)
Line 1004  END(sigcode)
Line 903  END(sigcode)
  */   */
 ENTRY(setjmp)  ENTRY(setjmp)
         movl    4(%esp),%eax          movl    4(%esp),%eax
         movl    %ebx,(%eax)             /* save ebx */          movl    %ebx,(%eax)             # save ebx
         movl    %esp,4(%eax)            /* save esp */          movl    %esp,4(%eax)            # save esp
         movl    %ebp,8(%eax)            /* save ebp */          movl    %ebp,8(%eax)            # save ebp
         movl    %esi,12(%eax)           /* save esi */          movl    %esi,12(%eax)           # save esi
         movl    %edi,16(%eax)           /* save edi */          movl    %edi,16(%eax)           # save edi
         movl    (%esp),%edx             /* get rta */          movl    (%esp),%edx             # get rta
         movl    %edx,20(%eax)           /* save eip */          movl    %edx,20(%eax)           # save eip
         xorl    %eax,%eax               /* return 0 */          xorl    %eax,%eax               # return 0
         ret          ret
 END(setjmp)  END(setjmp)
   
Line 1022  END(setjmp)
Line 921  END(setjmp)
  */   */
 ENTRY(longjmp)  ENTRY(longjmp)
         movl    4(%esp),%eax          movl    4(%esp),%eax
         movl    (%eax),%ebx             /* restore ebx */          movl    (%eax),%ebx             # restore ebx
         movl    4(%eax),%esp            /* restore esp */          movl    4(%eax),%esp            # restore esp
         movl    8(%eax),%ebp            /* restore ebp */          movl    8(%eax),%ebp            # restore ebp
         movl    12(%eax),%esi           /* restore esi */          movl    12(%eax),%esi           # restore esi
         movl    16(%eax),%edi           /* restore edi */          movl    16(%eax),%edi           # restore edi
         movl    20(%eax),%edx           /* get rta */          movl    20(%eax),%edx           # get rta
         movl    %edx,(%esp)             /* put in return frame */          movl    %edx,(%esp)             # put in return frame
         movl    $1,%eax                 /* return 1 */          movl    $1,%eax                 # return 1
         ret          ret
 END(longjmp)  END(longjmp)
   
Line 1039  END(longjmp)
Line 938  END(longjmp)
  * Mimic cpu_switchto() for postmortem debugging.   * Mimic cpu_switchto() for postmortem debugging.
  */   */
 ENTRY(dumpsys)  ENTRY(dumpsys)
         pushl   %ebx                    /* set up fake switchframe */          pushl   %ebx                    # set up fake switchframe
         pushl   %esi                    /* and save context */          pushl   %esi                    #   and save context
         pushl   %edi          pushl   %edi
         movl    %esp,_C_LABEL(dumppcb)+PCB_ESP          movl    %esp,_C_LABEL(dumppcb)+PCB_ESP
         movl    %ebp,_C_LABEL(dumppcb)+PCB_EBP          movl    %ebp,_C_LABEL(dumppcb)+PCB_EBP
         call    _C_LABEL(dodumpsys)     /* dump! */          call    _C_LABEL(dodumpsys)     # dump!
         addl    $(3*4), %esp            /* unwind switchframe */          addl    $(3*4), %esp            # unwind switchframe
         ret          ret
 END(dumpsys)  END(dumpsys)
   
 /*  /*
  * struct lwp *cpu_switchto(struct lwp *oldlwp, struct lwp *newlwp,   * struct lwp *cpu_switchto(struct lwp *oldlwp, struct *newlwp,
  *     bool returning)   *                          bool returning)
  *   *
  *      1. if (oldlwp != NULL), save its context.   *      1. if (oldlwp != NULL), save its context.
  *      2. then, restore context of newlwp.   *      2. then, restore context of newlwp.
Line 1076  ENTRY(cpu_switchto)
Line 975  ENTRY(cpu_switchto)
 0:  0:
 #endif  #endif
   
         movl    16(%esp),%esi           /* oldlwp */          movl    16(%esp),%esi           # oldlwp
         movl    20(%esp),%edi           /* newlwp */          movl    20(%esp),%edi           # newlwp
         movl    24(%esp),%edx           /* returning */          movl    24(%esp),%edx           # returning
           testl   %esi,%esi
         testl   %esi,%esi               /* oldlwp = NULL ? */          jz      1f
         jz      skip_save  
   
         /* Save old context. */          /* Save old context. */
         movl    L_PCB(%esi),%eax          movl    L_PCB(%esi),%eax
         movl    %esp,PCB_ESP(%eax)          movl    %esp,PCB_ESP(%eax)
         movl    %ebp,PCB_EBP(%eax)          movl    %ebp,PCB_EBP(%eax)
 skip_save:  
   
         /* Switch to newlwp's stack. */          /* Switch to newlwp's stack. */
         movl    L_PCB(%edi),%ebx  1:      movl    L_PCB(%edi),%ebx
         movl    PCB_EBP(%ebx),%ebp          movl    PCB_EBP(%ebx),%ebp
         movl    PCB_ESP(%ebx),%esp          movl    PCB_ESP(%ebx),%esp
   
Line 1103  skip_save:
Line 1000  skip_save:
   
         /* Skip the rest if returning to a pinned LWP. */          /* Skip the rest if returning to a pinned LWP. */
         testl   %edx,%edx          testl   %edx,%edx
         jnz     switch_return          jnz     4f
   
         /* Switch ring0 stack */  
 #ifdef XEN  #ifdef XEN
         pushl   %edi          pushl   %edi
         call    _C_LABEL(i386_switch_context)          call    _C_LABEL(i386_switch_context)
         addl    $4,%esp          addl    $4,%esp
 #else  #else /* !XEN */
           /* Switch ring0 esp */
         movl    PCB_ESP0(%ebx),%eax          movl    PCB_ESP0(%ebx),%eax
         movl    %eax,CPUVAR(ESP0)          movl    %eax,CPUVAR(ESP0)
 #endif  #endif /* !XEN */
   
         /* Don't bother with the rest if switching to a system process. */          /* Don't bother with the rest if switching to a system process. */
         testl   $LW_SYSTEM,L_FLAG(%edi)          testl   $LW_SYSTEM,L_FLAG(%edi)
         jnz     switch_return          jnz     4f
   
 #ifndef XEN  #ifndef XEN
         /* Restore thread-private %fs/%gs descriptors. */          /* Restore thread-private %fs/%gs descriptors. */
         movl    CPUVAR(GDT),%ecx          movl    CPUVAR(GDT),%ecx
         movl    PCB_FSD(%ebx),%eax          movl    PCB_FSD(%ebx), %eax
         movl    PCB_FSD+4(%ebx),%edx          movl    PCB_FSD+4(%ebx), %edx
         movl    %eax,(GUFS_SEL*8)(%ecx)          movl    %eax, (GUFS_SEL*8)(%ecx)
         movl    %edx,(GUFS_SEL*8+4)(%ecx)          movl    %edx, (GUFS_SEL*8+4)(%ecx)
         movl    PCB_GSD(%ebx),%eax          movl    PCB_GSD(%ebx), %eax
         movl    PCB_GSD+4(%ebx),%edx          movl    PCB_GSD+4(%ebx), %edx
         movl    %eax,(GUGS_SEL*8)(%ecx)          movl    %eax, (GUGS_SEL*8)(%ecx)
         movl    %edx,(GUGS_SEL*8+4)(%ecx)          movl    %edx, (GUGS_SEL*8+4)(%ecx)
 #endif /* !XEN */  #endif /* !XEN */
   
         /* Switch I/O bitmap */          /* Switch I/O bitmap */
Line 1142  skip_save:
Line 1039  skip_save:
         /* Is this process using RAS (restartable atomic sequences)? */          /* Is this process using RAS (restartable atomic sequences)? */
         movl    L_PROC(%edi),%eax          movl    L_PROC(%edi),%eax
         cmpl    $0,P_RASLIST(%eax)          cmpl    $0,P_RASLIST(%eax)
         je      no_RAS          jne     5f
   
         /* Handle restartable atomic sequences (RAS). */  
         movl    L_MD_REGS(%edi),%ecx  
         pushl   TF_EIP(%ecx)  
         pushl   %eax  
         call    _C_LABEL(ras_lookup)  
         addl    $8,%esp  
         cmpl    $-1,%eax  
         je      no_RAS  
         movl    L_MD_REGS(%edi),%ecx  
         movl    %eax,TF_EIP(%ecx)  
 no_RAS:  
   
         /*          /*
          * Restore cr0 (including FPU state).  Raise the IPL to IPL_HIGH.           * Restore cr0 (including FPU state).  Raise the IPL to IPL_HIGH.
          * FPU IPIs can alter the LWP's saved cr0.  Dropping the priority           * FPU IPIs can alter the LWP's saved cr0.  Dropping the priority
          * is deferred until mi_switch(), when cpu_switchto() returns.           * is deferred until mi_switch(), when cpu_switchto() returns.
          */           */
   2:
 #ifdef XEN  #ifdef XEN
         pushl   %edi          pushl   %edi
         call    _C_LABEL(i386_tls_switch)          call    _C_LABEL(i386_tls_switch)
Line 1175  no_RAS:
Line 1061  no_RAS:
          * set CR0_TS so we'll trap rather than reuse bogus state.           * set CR0_TS so we'll trap rather than reuse bogus state.
          */           */
         cmpl    CPUVAR(FPCURLWP),%edi          cmpl    CPUVAR(FPCURLWP),%edi
         je      skip_TS          je      3f
         orl     $CR0_TS,%ecx          orl     $CR0_TS,%ecx
 skip_TS:  
   
         /* Reloading CR0 is very expensive - avoid if possible. */          /* Reloading CR0 is very expensive - avoid if possible. */
         cmpl    %edx,%ecx  3:      cmpl    %edx,%ecx
         je      switch_return          je      4f
         movl    %ecx,%cr0          movl    %ecx,%cr0
 #endif /* !XEN */  #endif /* !XEN */
   
 switch_return:  
         /* Return to the new LWP, returning 'oldlwp' in %eax. */          /* Return to the new LWP, returning 'oldlwp' in %eax. */
         movl    %esi,%eax  4:      movl    %esi,%eax
         popl    %edi          popl    %edi
         popl    %esi          popl    %esi
         popl    %ebx          popl    %ebx
         ret          ret
   
           /* Check for restartable atomic sequences (RAS). */
   5:      movl    L_MD_REGS(%edi),%ecx
           pushl   TF_EIP(%ecx)
           pushl   %eax
           call    _C_LABEL(ras_lookup)
           addl    $8,%esp
           cmpl    $-1,%eax
           je      2b
           movl    L_MD_REGS(%edi),%ecx
           movl    %eax,TF_EIP(%ecx)
           jmp     2b
   
 .Lcopy_iobitmap:  .Lcopy_iobitmap:
         /* Copy I/O bitmap. */          /* Copy I/O bitmap. */
         incl    _C_LABEL(pmap_iobmp_evcnt)+EV_COUNT          incl    _C_LABEL(pmap_iobmp_evcnt)+EV_COUNT
Line 1216  END(cpu_switchto)
Line 1112  END(cpu_switchto)
  * Update pcb, saving current processor state.   * Update pcb, saving current processor state.
  */   */
 ENTRY(savectx)  ENTRY(savectx)
         movl    4(%esp),%edx            /* edx = pcb */          movl    4(%esp),%edx            # edx = pcb
         movl    %esp,PCB_ESP(%edx)          movl    %esp,PCB_ESP(%edx)
         movl    %ebp,PCB_EBP(%edx)          movl    %ebp,PCB_EBP(%edx)
         ret          ret
 END(savectx)  END(savectx)
   
 /*  /*
    * osyscall()
    *
    * Old call gate entry for syscall
    */
   IDTVEC(osyscall)
   #ifndef XEN
           /* XXX we are in trouble! interrupts be off here. */
           cli                     # must be first instruction
   #endif
           pushfl                  # set eflags in trap frame
           popl    8(%esp)
           orl     $PSL_I,8(%esp)  # re-enable ints on return to user
           pushl   $7              # size of instruction for restart
           jmp     syscall1
   IDTVEC_END(osyscall)
   
   /*
  * syscall()   * syscall()
  *   *
  * Trap gate entry for syscall   * Trap gate entry for syscall
  */   */
 IDTVEC(syscall)  IDTVEC(syscall)
         pushl   $2              /* size of instruction for restart */          pushl   $2              # size of instruction for restart
         pushl   $T_ASTFLT       /* trap # for doing ASTs */  syscall1:
           pushl   $T_ASTFLT       # trap # for doing ASTs
         INTRENTRY          INTRENTRY
         STI(%eax)          STI(%eax)
 #ifdef DIAGNOSTIC  #ifdef DIAGNOSTIC
Line 1244  IDTVEC(syscall)
Line 1158  IDTVEC(syscall)
 #endif  #endif
 1:  1:
 #endif /* DIAGNOSTIC */  #endif /* DIAGNOSTIC */
         addl    $1,CPUVAR(NSYSCALL)     /* count it atomically */          addl    $1,CPUVAR(NSYSCALL)     # count it atomically
         adcl    $0,CPUVAR(NSYSCALL)+4   /* count it atomically */          adcl    $0,CPUVAR(NSYSCALL)+4   # count it atomically
         movl    CPUVAR(CURLWP),%edi          movl    CPUVAR(CURLWP),%edi
         movl    L_PROC(%edi),%edx          movl    L_PROC(%edi),%edx
         movl    %esp,L_MD_REGS(%edi)    /* save pointer to frame */          movl    %esp,L_MD_REGS(%edi)    # save pointer to frame
         pushl   %esp          pushl   %esp
         call    *P_MD_SYSCALL(%edx)     /* get pointer to syscall() function */          call    *P_MD_SYSCALL(%edx)     # get pointer to syscall() function
         addl    $4,%esp          addl    $4,%esp
 .Lsyscall_checkast:  .Lsyscall_checkast:
         /* Check for ASTs on exit to user mode. */          /* Check for ASTs on exit to user mode. */
Line 1267  IDTVEC(syscall)
Line 1181  IDTVEC(syscall)
         /* process pending interrupts */          /* process pending interrupts */
         CLI(%eax)          CLI(%eax)
         movl    CPUVAR(ILEVEL), %ebx          movl    CPUVAR(ILEVEL), %ebx
         movl    $.Lsyscall_resume, %esi /* address to resume loop at */          movl    $.Lsyscall_resume, %esi # address to resume loop at
 .Lsyscall_resume:  .Lsyscall_resume:
         movl    %ebx,%eax               /* get cpl */          movl    %ebx,%eax       # get cpl
         movl    CPUVAR(IUNMASK)(,%eax,4),%eax          movl    CPUVAR(IUNMASK)(,%eax,4),%eax
         andl    CPUVAR(IPENDING),%eax   /* any non-masked bits left? */          andl    CPUVAR(IPENDING),%eax   # any non-masked bits left?
         jz      17f          jz      17f
         bsrl    %eax,%eax          bsrl    %eax,%eax
         btrl    %eax,CPUVAR(IPENDING)          btrl    %eax,CPUVAR(IPENDING)
         movl    CPUVAR(ISOURCES)(,%eax,4),%eax          movl    CPUVAR(ISOURCES)(,%eax,4),%eax
         jmp     *IS_RESUME(%eax)          jmp     *IS_RESUME(%eax)
 17:     movl    %ebx, CPUVAR(ILEVEL)    /* restore cpl  */  17:     movl    %ebx, CPUVAR(ILEVEL)    #restore cpl
         jmp     .Lsyscall_checkast          jmp     .Lsyscall_checkast
 14:  14:
 #endif /* XEN */  #endif /* XEN */
Line 1315  IDTVEC(syscall)
Line 1229  IDTVEC(syscall)
         jmp     .Lsyscall_checkast      /* re-check ASTs */          jmp     .Lsyscall_checkast      /* re-check ASTs */
 IDTVEC_END(syscall)  IDTVEC_END(syscall)
   
   IDTVEC(svr4_fasttrap)
           pushl   $2              # size of instruction for restart
           pushl   $T_ASTFLT       # trap # for doing ASTs
           INTRENTRY
           STI(%eax)
           pushl   $RW_READER
           pushl   $_C_LABEL(svr4_fasttrap_lock)
           call    _C_LABEL(rw_enter)
           addl    $8,%esp
           call    *_C_LABEL(svr4_fasttrap_vec)
           pushl   $_C_LABEL(svr4_fasttrap_lock)
           call    _C_LABEL(rw_exit)
           addl    $4,%esp
   2:      /* Check for ASTs on exit to user mode. */
           cli
           CHECK_ASTPENDING(%eax)
           je      1f
           /* Always returning to user mode here. */
           CLEAR_ASTPENDING(%eax)
           sti
           /* Pushed T_ASTFLT into tf_trapno on entry. */
           pushl   %esp
           call    _C_LABEL(trap)
           addl    $4,%esp
           jmp     2b
   1:      CHECK_DEFERRED_SWITCH
           jnz     9f
           INTRFASTEXIT
   9:      sti
           call    _C_LABEL(pmap_load)
           cli
           jmp     2b
   
   #if NNPX > 0
   /*
    * Special interrupt handlers.  Someday intr0-intr15 will be used to count
    * interrupts.  We'll still need a special exception 16 handler.  The busy
    * latch stuff in probintr() can be moved to npxprobe().
    */
   
   /*
    * void probeintr(void)
    */
   NENTRY(probeintr)
           ss
           incl    _C_LABEL(npx_intrs_while_probing)
           pushl   %eax
           movb    $0x20,%al       # EOI (asm in strings loses cpp features)
           outb    %al,$0xa0       # IO_ICU2
           outb    %al,$0x20       # IO_ICU1
           movb    $0,%al
           outb    %al,$0xf0       # clear BUSY# latch
           popl    %eax
           iret
   END(probeintr)
   
   /*
    * void probetrap(void)
    */
   NENTRY(probetrap)
           ss
           incl    _C_LABEL(npx_traps_while_probing)
           fnclex
           iret
   END(probetrap)
   
 /*  /*
  * int npx586bug1(int a, int b)   * int npx586bug1(int a, int b)
  * Used when checking for the FDIV bug on first generations pentiums.  
  * Anything 120MHz or above is fine.  
  */   */
 NENTRY(npx586bug1)  NENTRY(npx586bug1)
         fildl   4(%esp)         /* x */          fildl   4(%esp)         # x
         fildl   8(%esp)         /* y */          fildl   8(%esp)         # y
         fld     %st(1)          fld     %st(1)
         fdiv    %st(1),%st      /* x/y */          fdiv    %st(1),%st      # x/y
         fmulp   %st,%st(1)      /* (x/y)*y */          fmulp   %st,%st(1)      # (x/y)*y
         fsubrp  %st,%st(1)      /* x-(x/y)*y */          fsubrp  %st,%st(1)      # x-(x/y)*y
         pushl   $0          pushl   $0
         fistpl  (%esp)          fistpl  (%esp)
         popl    %eax          popl    %eax
         ret          ret
 END(npx586bug1)  END(npx586bug1)
   #endif /* NNPX > 0 */
   
 /*  /*
  * void sse2_idlezero_page(void *pg)   * void sse2_idlezero_page(void *pg)
Line 1369  ENTRY(sse2_idlezero_page)
Line 1348  ENTRY(sse2_idlezero_page)
         popl    %ebp          popl    %ebp
         ret          ret
 END(sse2_idlezero_page)  END(sse2_idlezero_page)
   
 ENTRY(intrfastexit)  
         movw    TF_GS(%esp),%gs  
         movw    TF_FS(%esp),%fs  
         movw    TF_ES(%esp),%es  
         movw    TF_DS(%esp),%ds  
         movl    TF_EDI(%esp),%edi  
         movl    TF_ESI(%esp),%esi  
         movl    TF_EBP(%esp),%ebp  
         movl    TF_EBX(%esp),%ebx  
         movl    TF_EDX(%esp),%edx  
         movl    TF_ECX(%esp),%ecx  
         movl    TF_EAX(%esp),%eax  
         addl    $(TF_PUSHSIZE+8),%esp  
         iret  
 END(intrfastexit)  
   

Legend:
Removed from v.1.102.2.3  
changed lines
  Added in v.1.103

CVSweb <webmaster@jp.NetBSD.org>