[BACK]Return to locore.S CVS log [TXT][DIR] Up to [cvs.NetBSD.org] / src / sys / arch / i386 / i386

Please note that diffs are not public domain; they are subject to the copyright notices on the relevant files.

Diff for /src/sys/arch/i386/i386/locore.S between version 1.44 and 1.119

version 1.44, 2006/10/25 13:56:15 version 1.119, 2016/05/14 08:34:00
Line 1 
Line 1 
 /*      $NetBSD$        */  /*      $NetBSD$        */
   
 /*-  /*
  * Copyright (c) 1998, 2000, 2004 The NetBSD Foundation, Inc.   * Copyright-o-rama!
    */
   
   /*
    * Copyright (c) 2006 Manuel Bouyer.
    *
    * Redistribution and use in source and binary forms, with or without
    * modification, are permitted provided that the following conditions
    * are met:
    * 1. Redistributions of source code must retain the above copyright
    *    notice, this list of conditions and the following disclaimer.
    * 2. Redistributions in binary form must reproduce the above copyright
    *    notice, this list of conditions and the following disclaimer in the
    *    documentation and/or other materials provided with the distribution.
    *
    * THIS SOFTWARE IS PROVIDED BY THE AUTHOR ``AS IS'' AND ANY EXPRESS OR
    * IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES
    * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.
    * IN NO EVENT SHALL THE AUTHOR BE LIABLE FOR ANY DIRECT, INDIRECT,
    * INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT
    * NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
    * DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
    * THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
    * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF
    * THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
    *
    */
   
   /*
    * Copyright (c) 2001 Wasabi Systems, Inc.
  * All rights reserved.   * All rights reserved.
  *   *
  * This code is derived from software contributed to The NetBSD Foundation   * Written by Frank van der Linden for Wasabi Systems, Inc.
  * by Charles M. Hannum.  
  *   *
  * Redistribution and use in source and binary forms, with or without   * Redistribution and use in source and binary forms, with or without
  * modification, are permitted provided that the following conditions   * modification, are permitted provided that the following conditions
Line 17 
Line 45 
  *    documentation and/or other materials provided with the distribution.   *    documentation and/or other materials provided with the distribution.
  * 3. All advertising materials mentioning features or use of this software   * 3. All advertising materials mentioning features or use of this software
  *    must display the following acknowledgement:   *    must display the following acknowledgement:
  *        This product includes software developed by the NetBSD   *      This product includes software developed for the NetBSD Project by
  *        Foundation, Inc. and its contributors.   *      Wasabi Systems, Inc.
  * 4. Neither the name of The NetBSD Foundation nor the names of its   * 4. The name of Wasabi Systems, Inc. may not be used to endorse
  *    contributors may be used to endorse or promote products derived   *    or promote products derived from this software without specific prior
  *    from this software without specific prior written permission.   *    written permission.
    *
    * THIS SOFTWARE IS PROVIDED BY WASABI SYSTEMS, INC. ``AS IS'' AND
    * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
    * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
    * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL WASABI SYSTEMS, INC
    * BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR
    * CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF
    * SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS
    * INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN
    * CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)
    * ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE
    * POSSIBILITY OF SUCH DAMAGE.
    */
   
   /*-
    * Copyright (c) 1998, 2000, 2004, 2006, 2007, 2009 The NetBSD Foundation, Inc.
    * All rights reserved.
    *
    * This code is derived from software contributed to The NetBSD Foundation
    * by Charles M. Hannum, and by Andrew Doran.
    *
    * Redistribution and use in source and binary forms, with or without
    * modification, are permitted provided that the following conditions
    * are met:
    * 1. Redistributions of source code must retain the above copyright
    *    notice, this list of conditions and the following disclaimer.
    * 2. Redistributions in binary form must reproduce the above copyright
    *    notice, this list of conditions and the following disclaimer in the
    *    documentation and/or other materials provided with the distribution.
  *   *
  * THIS SOFTWARE IS PROVIDED BY THE NETBSD FOUNDATION, INC. AND CONTRIBUTORS   * THIS SOFTWARE IS PROVIDED BY THE NETBSD FOUNDATION, INC. AND CONTRIBUTORS
  * ``AS IS'' AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED   * ``AS IS'' AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
Line 70 
Line 127 
  *      @(#)locore.s    7.3 (Berkeley) 5/13/91   *      @(#)locore.s    7.3 (Berkeley) 5/13/91
  */   */
   
 #include "opt_compat_netbsd.h"  #include <machine/asm.h>
   __KERNEL_RCSID(0, "$NetBSD$");
   
 #include "opt_compat_oldboot.h"  #include "opt_compat_oldboot.h"
 #include "opt_cputype.h"  #include "opt_copy_symtab.h"
 #include "opt_ddb.h"  #include "opt_ddb.h"
 #include "opt_ipkdb.h"  #include "opt_modular.h"
 #include "opt_lockdebug.h"  #include "opt_multiboot.h"
 #include "opt_multiprocessor.h"  
 #include "opt_realmem.h"  #include "opt_realmem.h"
 #include "opt_user_ldt.h"  
 #include "opt_vm86.h"  #include "opt_vm86.h"
   #include "opt_xen.h"
   
 #include "npx.h"  
 #include "assym.h"  #include "assym.h"
 #include "lapic.h"  #include "lapic.h"
 #include "ioapic.h"  #include "ioapic.h"
Line 94 
Line 151 
 #include <machine/segments.h>  #include <machine/segments.h>
 #include <machine/specialreg.h>  #include <machine/specialreg.h>
 #include <machine/trap.h>  #include <machine/trap.h>
   
 #if NLAPIC > 0  
 #include <machine/i82489reg.h>  #include <machine/i82489reg.h>
 #endif  #include <machine/frameasm.h>
   #include <machine/i82489reg.h>
   #ifndef XEN
 #include <machine/multiboot.h>  #include <machine/multiboot.h>
   #endif
   
 /* LINTSTUB: include <sys/types.h> */  /* Get definitions for IOM_BEGIN, IOM_END, and IOM_SIZE */
 /* LINTSTUB: include <machine/cpu.h> */  #include <dev/isa/isareg.h>
 /* LINTSTUB: include <sys/systm.h> */  
   
 #include <machine/asm.h>  
   
 #if defined(MULTIPROCESSOR)  
   
 #define SET_CURLWP(lwp,cpu)                             \  
         movl    CPUVAR(SELF),cpu                ;       \  
         movl    lwp,CPUVAR(CURLWP)      ;       \  
         movl    cpu,L_CPU(lwp)  
   
   #ifndef XEN
   #define _RELOC(x)       ((x) - KERNBASE)
 #else  #else
   #define _RELOC(x)       ((x))
   #endif /* XEN */
   #define RELOC(x)        _RELOC(_C_LABEL(x))
   
 #define SET_CURLWP(lwp,tcpu)            movl    lwp,CPUVAR(CURLWP)  /* 32bit version of PG_NX */
 #define GET_CURLWP(reg)                 movl    CPUVAR(CURLWP),reg  #define PG_NX32 0x80000000
   
   #ifndef PAE
   #define PROC0_PDIR_OFF  0
   #else
   #define PROC0_L3_OFF    0
   #define PROC0_PDIR_OFF  1 * PAGE_SIZE
 #endif  #endif
   
 #define SET_CURPCB(reg)                 movl    reg,CPUVAR(CURPCB)  #define PROC0_STK_OFF   (PROC0_PDIR_OFF + PDP_SIZE * PAGE_SIZE)
   #define PROC0_PTP1_OFF  (PROC0_STK_OFF + UPAGES * PAGE_SIZE)
 #define CLEAR_RESCHED(reg)              movl    reg,CPUVAR(RESCHED)  
   
 /* XXX temporary kluge; these should not be here */  /*
 /* Get definitions for IOM_BEGIN, IOM_END, and IOM_SIZE */   * fillkpt - Fill in a kernel page table
 #include <dev/isa/isareg.h>   *      eax = pte (page frame | control | status)
    *      ebx = page table address
    *      ecx = number of pages to map
 /* Disallow old names for REALBASEMEM */   *
 #ifdef BIOSBASEMEM   * For PAE, each entry is 8 bytes long: we must set the 4 upper bytes to 0.
 #error BIOSBASEMEM option deprecated; use REALBASEMEM only if memory size reported by latest boot block is incorrect   * This is done by the first instruction of fillkpt. In the non-PAE case, this
 #endif   * instruction just clears the page table entry.
    */
   
 /* Disallow old names for REALEXTMEM */  #define fillkpt \
 #ifdef EXTMEM_SIZE  1:      movl    $0,(PDE_SIZE-4)(%ebx)   ;       /* upper 32 bits: 0 */  \
 #error EXTMEM_SIZE option deprecated; use REALEXTMEM only if memory size reported by latest boot block is incorrect          movl    %eax,(%ebx)             ;       /* store phys addr */   \
 #endif          addl    $PDE_SIZE,%ebx          ;       /* next PTE/PDE */      \
 #ifdef BIOSEXTMEM          addl    $PAGE_SIZE,%eax         ;       /* next phys page */    \
 #error BIOSEXTMEM option deprecated; use REALEXTMEM only if memory size reported by latest boot block is incorrect          loop    1b                      ;
 #endif  
   
 #include <machine/frameasm.h>  /*
    * killkpt - Destroy a kernel page table
    *      ebx = page table address
    *      ecx = number of pages to destroy
    */
   #define killkpt \
   1:      movl    $0,(PDE_SIZE-4)(%ebx)   ;       /* upper bits (for PAE) */ \
           movl    $0,(%ebx)               ; \
           addl    $PDE_SIZE,%ebx          ; \
           loop    1b                      ;
   
   
 #ifdef MULTIPROCESSOR  #ifdef XEN
 #include <machine/i82489reg.h>  /*
    * Xen guest identifier and loader selection
    */
   .section __xen_guest
           .ascii  "GUEST_OS=netbsd,GUEST_VER=3.0,XEN_VER=xen-3.0"
           .ascii  ",VIRT_BASE=0xc0000000" /* KERNBASE */
           .ascii  ",ELF_PADDR_OFFSET=0xc0000000" /* KERNBASE */
           .ascii  ",VIRT_ENTRY=0xc0100000" /* KERNTEXTOFF */
           .ascii  ",HYPERCALL_PAGE=0x00000101"
                   /* (???+HYPERCALL_PAGE_OFFSET)/PAGE_SIZE) */
   #ifdef PAE
           .ascii  ",PAE=yes[extended-cr3]"
   #endif
           .ascii  ",LOADER=generic"
   #if (NKSYMS || defined(DDB) || defined(MODULAR)) && !defined(makeoptions_COPY_SYMTAB)
           .ascii  ",BSD_SYMTAB=yes"
 #endif  #endif
           .byte   0
   #endif  /* XEN */
   
 /*  /*
  * Initialization   * Initialization
  */   */
         .data          .data
   
         .globl  _C_LABEL(cpu)          .globl  _C_LABEL(nox_flag)
           .globl  _C_LABEL(cputype)
           .globl  _C_LABEL(cpuid_level)
         .globl  _C_LABEL(esym)          .globl  _C_LABEL(esym)
           .globl  _C_LABEL(eblob)
         .globl  _C_LABEL(atdevbase)          .globl  _C_LABEL(atdevbase)
         .globl  _C_LABEL(proc0uarea),_C_LABEL(PDPpaddr)          .globl  _C_LABEL(lwp0uarea)
           .globl  _C_LABEL(PDPpaddr)
         .globl  _C_LABEL(gdt)          .globl  _C_LABEL(gdt)
 #ifdef I586_CPU  
         .globl  _C_LABEL(idt)          .globl  _C_LABEL(idt)
 #endif  
         .globl  _C_LABEL(lapic_tpr)          .globl  _C_LABEL(lapic_tpr)
   
 #if NLAPIC > 0  #if NLAPIC > 0
Line 172 
Line 256 
         .align  12          .align  12
 #endif  #endif
         .globl _C_LABEL(local_apic), _C_LABEL(lapic_id)          .globl _C_LABEL(local_apic), _C_LABEL(lapic_id)
 _C_LABEL(local_apic):          .type   _C_LABEL(local_apic), @object
   LABEL(local_apic)
         .space  LAPIC_ID          .space  LAPIC_ID
 _C_LABEL(lapic_id):  END(local_apic)
           .type   _C_LABEL(lapic_id), @object
   LABEL(lapic_id)
         .long   0x00000000          .long   0x00000000
         .space  LAPIC_TPRI-(LAPIC_ID+4)          .space  LAPIC_TPRI-(LAPIC_ID+4)
 _C_LABEL(lapic_tpr):  END(lapic_id)
         .space  LAPIC_PPRI-LAPIC_TPRI          .type   _C_LABEL(lapic_tpr), @object
   LABEL(lapic_tpr)
           .space  LAPIC_PPRI-LAPIC_TPRI
   END(lapic_tpr)
           .type   _C_LABEL(lapic_ppr), @object
 _C_LABEL(lapic_ppr):  _C_LABEL(lapic_ppr):
         .space  LAPIC_ISR-LAPIC_PPRI          .space  LAPIC_ISR-LAPIC_PPRI
   END(lapic_ppr)
           .type   _C_LABEL(lapic_isr), @object
 _C_LABEL(lapic_isr):  _C_LABEL(lapic_isr):
         .space  PAGE_SIZE-LAPIC_ISR          .space  PAGE_SIZE-LAPIC_ISR
   END(lapic_isr)
 #else  #else
 _C_LABEL(lapic_tpr):          .type   _C_LABEL(lapic_tpr), @object
   LABEL(lapic_tpr)
         .long 0          .long 0
   END(lapic_tpr)
 #endif  #endif
   
           .type   _C_LABEL(nox_flag), @object
 _C_LABEL(cpu):          .long   0       # are we 386, 386sx, or 486,  LABEL(nox_flag)         .long   0       /* 32bit NOX flag, set if supported */
                                         #   or Pentium, or..  END(nox_flag)
 _C_LABEL(atdevbase):    .long   0       # location of start of iomem in virtual          .type   _C_LABEL(cputype), @object
 _C_LABEL(proc0uarea):   .long   0  LABEL(cputype)          .long   0       /* are we 80486, Pentium, or.. */
 _C_LABEL(PDPpaddr):     .long   0       # paddr of PDP, for libkvm  END(cputype)
           .type   _C_LABEL(cpuid_level), @object
         .space 512  LABEL(cpuid_level)      .long   0
   END(cpuid_level)
           .type   _C_LABEL(atdevbase), @object
   LABEL(atdevbase)        .long   0       /* location of start of iomem in virt */
   END(atdevbase)
           .type   _C_LABEL(lwp0uarea), @object
   LABEL(lwp0uarea)        .long   0
   END(lwp0uarea)
           .type   _C_LABEL(PDPpaddr), @object
   LABEL(PDPpaddr)         .long   0       /* paddr of PDP, for libkvm */
   END(PDPpaddr)
           .type   _C_LABEL(tablesize), @object
   _C_LABEL(tablesize):    .long   0
   END(tablesize)
   
           /* Space for the temporary stack */
           .size   tmpstk, tmpstk - .
           .space  512
 tmpstk:  tmpstk:
   #ifdef XEN
           .align          PAGE_SIZE, 0x0  /* Align on page boundary */
 #define _RELOC(x)       ((x) - KERNBASE)  LABEL(tmpgdt)
 #define RELOC(x)        _RELOC(_C_LABEL(x))          .space          PAGE_SIZE       /* Xen expects a page */
   END(tmpgdt)
   #endif /* XEN */
   
         .text          .text
         .globl  _C_LABEL(kernel_text)          .globl  _C_LABEL(kernel_text)
         .set    _C_LABEL(kernel_text),KERNTEXTOFF          .set    _C_LABEL(kernel_text),KERNTEXTOFF
   
         .globl  start  ENTRY(start)
 start:  movw    $0x1234,0x472                   # warm boot  #ifndef XEN
   
           /* Warm boot */
           movw    $0x1234,0x472
   
 #if defined(MULTIBOOT)  #if defined(MULTIBOOT)
         jmp     1f          jmp     1f
Line 232  _C_LABEL(Multiboot_Header):
Line 350  _C_LABEL(Multiboot_Header):
          * space to process it later -- after we are relocated.  It will           * space to process it later -- after we are relocated.  It will
          * be safer to run complex C code than doing it at this point.           * be safer to run complex C code than doing it at this point.
          */           */
         pushl   %ebx            # Address of Multiboot information          pushl   %ebx            /* Address of Multiboot information */
         call    _C_LABEL(multiboot_pre_reloc)          call    _C_LABEL(multiboot_pre_reloc)
         addl    $4,%esp          addl    $4,%esp
         jmp     2f          jmp     2f
Line 241  _C_LABEL(Multiboot_Header):
Line 359  _C_LABEL(Multiboot_Header):
 1:  1:
         /*          /*
          * At this point, we know that a NetBSD-specific boot loader           * At this point, we know that a NetBSD-specific boot loader
          * booted this kernel.  The stack carries the following parameters:           * booted this kernel.
          * (boothowto, [bootdev], bootinfo, esym, biosextmem, biosbasemem),           *
          * 4 bytes each.           * Load parameters from the stack (32 bits):
            *     boothowto, [bootdev], bootinfo, esym, biosextmem, biosbasemem
            * We are not interested in 'bootdev'.
          */           */
         addl    $4,%esp         # Discard return address to boot loader  
           addl    $4,%esp         /* Discard return address to boot loader */
         call    _C_LABEL(native_loader)          call    _C_LABEL(native_loader)
         addl    $24,%esp          addl    $24,%esp
   
Line 259  _C_LABEL(Multiboot_Header):
Line 380  _C_LABEL(Multiboot_Header):
         movw    %ax,%fs          movw    %ax,%fs
         movw    %ax,%gs          movw    %ax,%gs
         decl    %eax          decl    %eax
         movl    %eax,RELOC(cpu_info_primary)+CPU_INFO_LEVEL          movl    %eax,RELOC(cpuid_level)
   
         /* Find out our CPU type. */          /* Find out our CPU type. */
   
Line 296  isnx586:
Line 417  isnx586:
          * Don't try cpuid, as Nx586s reportedly don't support the           * Don't try cpuid, as Nx586s reportedly don't support the
          * PSL_ID bit.           * PSL_ID bit.
          */           */
         movl    $CPU_NX586,RELOC(cpu)          movl    $CPU_NX586,RELOC(cputype)
         jmp     2f          jmp     2f
   
 is386:  is386:
         movl    $CPU_386,RELOC(cpu)          movl    $CPU_386,RELOC(cputype)
         jmp     2f          jmp     2f
   
 try486: /* Try to toggle identification flag; does not exist on early 486s. */  try486: /* Try to toggle identification flag; does not exist on early 486s. */
Line 319  try486: /* Try to toggle identification 
Line 440  try486: /* Try to toggle identification 
   
         testl   %eax,%eax          testl   %eax,%eax
         jnz     try586          jnz     try586
 is486:  movl    $CPU_486,RELOC(cpu)  is486:  movl    $CPU_486,RELOC(cputype)
         /*          /*
          * Check Cyrix CPU           * Check Cyrix CPU
          * Cyrix CPUs do not change the undefined flags following           * Cyrix CPUs do not change the undefined flags following
Line 337  is486: movl $CPU_486,RELOC(cpu)
Line 458  is486: movl $CPU_486,RELOC(cpu)
         popfl          popfl
         jmp 2f          jmp 2f
 trycyrix486:  trycyrix486:
         movl    $CPU_6x86,RELOC(cpu)    # set CPU type          movl    $CPU_6x86,RELOC(cputype)        /* set CPU type */
         /*          /*
          * Check for Cyrix 486 CPU by seeing if the flags change during a           * Check for Cyrix 486 CPU by seeing if the flags change during a
          * divide. This is documented in the Cx486SLC/e SMM Programmer's           * divide. This is documented in the Cx486SLC/e SMM Programmer's
          * Guide.           * Guide.
          */           */
         xorl    %edx,%edx          xorl    %edx,%edx
         cmpl    %edx,%edx               # set flags to known state          cmpl    %edx,%edx               /* set flags to known state */
         pushfl          pushfl
         popl    %ecx                    # store flags in ecx          popl    %ecx                    /* store flags in ecx */
         movl    $-1,%eax          movl    $-1,%eax
         movl    $4,%ebx          movl    $4,%ebx
         divl    %ebx                    # do a long division          divl    %ebx                    /* do a long division */
         pushfl          pushfl
         popl    %eax          popl    %eax
         xorl    %ecx,%eax               # are the flags different?          xorl    %ecx,%eax               /* are the flags different? */
         testl   $0x8d5,%eax             # only check C|PF|AF|Z|N|V          testl   $0x8d5,%eax             /* only check C|PF|AF|Z|N|V */
         jne     2f                      # yes; must be Cyrix 6x86 CPU          jne     2f                      /* yes; must be Cyrix 6x86 CPU */
         movl    $CPU_486DLC,RELOC(cpu)  # set CPU type          movl    $CPU_486DLC,RELOC(cputype)      /* set CPU type */
   
 #ifndef CYRIX_CACHE_WORKS  #ifndef CYRIX_CACHE_WORKS
         /* Disable caching of the ISA hole only. */          /* Disable caching of the ISA hole only. */
         invd          invd
         movb    $CCR0,%al               # Configuration Register index (CCR0)          movb    $CCR0,%al       /* Configuration Register index (CCR0) */
         outb    %al,$0x22          outb    %al,$0x22
         inb     $0x23,%al          inb     $0x23,%al
         orb     $(CCR0_NC1|CCR0_BARB),%al          orb     $(CCR0_NC1|CCR0_BARB),%al
Line 372  trycyrix486:
Line 493  trycyrix486:
         invd          invd
 #else /* CYRIX_CACHE_WORKS */  #else /* CYRIX_CACHE_WORKS */
         /* Set cache parameters */          /* Set cache parameters */
         invd                            # Start with guaranteed clean cache          invd                    /* Start with guaranteed clean cache */
         movb    $CCR0,%al               # Configuration Register index (CCR0)          movb    $CCR0,%al       /* Configuration Register index (CCR0) */
         outb    %al,$0x22          outb    %al,$0x22
         inb     $0x23,%al          inb     $0x23,%al
         andb    $~CCR0_NC0,%al          andb    $~CCR0_NC0,%al
Line 419  trycyrix486:
Line 540  trycyrix486:
 try586: /* Use the `cpuid' instruction. */  try586: /* Use the `cpuid' instruction. */
         xorl    %eax,%eax          xorl    %eax,%eax
         cpuid          cpuid
         movl    %eax,RELOC(cpu_info_primary)+CPU_INFO_LEVEL          movl    %eax,RELOC(cpuid_level)
   
 2:  2:
         /*          /*
Line 431  try586: /* Use the `cpuid' instruction. 
Line 552  try586: /* Use the `cpuid' instruction. 
          * The boot program should check:           * The boot program should check:
          *      text+data <= &stack_variable - more_space_for_stack           *      text+data <= &stack_variable - more_space_for_stack
          *      text+data+bss+pad+space_for_page_tables <= end_of_memory           *      text+data+bss+pad+space_for_page_tables <= end_of_memory
          * Oops, the gdt is in the carcass of the boot program so clearing           *
            * XXX: the gdt is in the carcass of the boot program so clearing
          * the rest of memory is still not possible.           * the rest of memory is still not possible.
          */           */
         movl    $_RELOC(tmpstk),%esp    # bootstrap stack end location          movl    $_RELOC(tmpstk),%esp
   
           /*
            * Retrieve the NX/XD flag. We use the 32bit version of PG_NX.
            */
           movl    $0x80000001,%eax
           cpuid
           andl    $CPUID_NOX,%edx
           jz      no_NOX
           movl    $PG_NX32,RELOC(nox_flag)
   no_NOX:
   
 /*  /*
  * Virtual address space of kernel:   * There are two different layouts possible, depending on whether PAE is
    * enabled or not.
    *
    * If PAE is not enabled, there are two levels of pages: PD -> PT. They will
    * be referred to as: L2 -> L1. L2 is 1 page long. The BOOTSTRAP TABLES have
    * the following layout:
    *      +-----+------------+----+
    *      | L2 -> PROC0 STK -> L1 |
    *      +-----+------------+----+
    *
    * If PAE is enabled, there are three levels of pages: PDP -> PD -> PT. They
    * will be referred to as: L3 -> L2 -> L1. L3 is 1 page long, L2 is 4 page
    * long. The BOOTSTRAP TABLES have the following layout:
    *      +-----+-----+------------+----+
    *      | L3 -> L2 -> PROC0 STK -> L1 |
    *      +-----+-----+------------+----+
  *   *
  * text | data | bss | [syms] | page dir | proc0 kstack   * Virtual address space of the kernel in both cases:
  *                            0          1       2      3   * +------+--------+------+-----+--------+---------------------+-----------
    * | TEXT | RODATA | DATA | BSS | [SYMS] | [PRELOADED MODULES] | BOOTSTRAP
    * +------+--------+------+-----+--------+---------------------+-----------
    *                             (1)      (2)                   (3)
    *
    * -------+------------+
    * TABLES | ISA IO MEM |
    * -------+------------+
    *       (4)
    *
    * PROC0 STK is obviously not linked as a page level. It just happens to be
    * caught between L2 and L1.
  */   */
 #define PROC0PDIR       ((0)              * PAGE_SIZE)  
 #define PROC0STACK      ((1)              * PAGE_SIZE)  
 #define SYSMAP          ((1+UPAGES)       * PAGE_SIZE)  
 #define TABLESIZE       ((1+UPAGES) * PAGE_SIZE) /* + nkpde * PAGE_SIZE */  
   
         /* Find end of kernel image. */          /* Find end of kernel image; brings us on (1). */
         movl    $RELOC(end),%edi          movl    $RELOC(end),%edi
 #if (NKSYMS || defined(DDB) || defined(LKM)) && !defined(SYMTAB_SPACE)  
         /* Save the symbols (if loaded). */  #if (NKSYMS || defined(DDB) || defined(MODULAR)) && !defined(makeoptions_COPY_SYMTAB)
           /* Save the symbols (if loaded); brinds us on (2). */
         movl    RELOC(esym),%eax          movl    RELOC(esym),%eax
         testl   %eax,%eax          testl   %eax,%eax
         jz      1f          jz      1f
Line 459  try586: /* Use the `cpuid' instruction. 
Line 614  try586: /* Use the `cpuid' instruction. 
 1:  1:
 #endif  #endif
   
         /* Calculate where to start the bootstrap tables. */          /* Skip over any modules/blobs; brings us on (3). */
         movl    %edi,%esi                       # edi = esym ? esym : end          movl    RELOC(eblob),%eax
         addl    $PGOFSET,%esi                   # page align up          testl   %eax,%eax
           jz      1f
           subl    $KERNBASE,%eax
           movl    %eax,%edi
   1:
   
           /* We are on (3). Align up for BOOTSTRAP TABLES. */
           movl    %edi,%esi
           addl    $PGOFSET,%esi
         andl    $~PGOFSET,%esi          andl    $~PGOFSET,%esi
   
         /*          /* nkptp[1] = (esi + ~L2_FRAME) >> L2_SHIFT + 1; */
          * Calculate the size of the kernel page table directory, and          movl    %esi,%eax
          * how many entries it will have.  Adjust nkpde to the actual          addl    $~L2_FRAME,%eax
          * kernel size automatically.  Account for the bootstrap tables,          shrl    $L2_SHIFT,%eax
          * round up, and add an extra 4MB.          incl    %eax            /* one more PTP for VAs stolen by bootstrap */
          */  1:      movl    %eax,RELOC(nkptp)+1*4
         leal    TABLESIZE+NBPD+PDOFSET(%edi),%eax  
         shrl    $PDSHIFT,%eax          /* tablesize = (PDP_SIZE + UPAGES + nkptp) << PGSHIFT; */
         movl    RELOC(nkpde),%ecx               # get nkpde          addl    $(PDP_SIZE+UPAGES),%eax
         cmpl    %ecx,%eax  #ifdef PAE
         jb      1f          incl    %eax            /* one more page for L3 */
         movl    %eax,%ecx          shll    $PGSHIFT+1,%eax /* PTP tables are twice larger with PAE */
 1:      cmpl    $NKPTP_MIN,%ecx                 # larger than min?  #else
         jge     1f          shll    $PGSHIFT,%eax
         movl    $NKPTP_MIN,%ecx                 # set at min  #endif
         jmp     2f          movl    %eax,RELOC(tablesize)
 1:      cmpl    $NKPTP_MAX,%ecx                 # larger than max?  
         jle     2f          /* Ensure that nkptp covers BOOTSTRAP TABLES. */
         movl    $NKPTP_MAX,%ecx          addl    %esi,%eax
 2:      movl    %ecx,RELOC(nkpde)          addl    $~L2_FRAME,%eax
           shrl    $L2_SHIFT,%eax
         /* Clear memory for bootstrap tables. */          incl    %eax
         shll    $PGSHIFT,%ecx          cmpl    %eax,RELOC(nkptp)+1*4
         addl    $TABLESIZE,%ecx          jnz     1b
         addl    %esi,%ecx                       # end of tables  
         subl    %edi,%ecx                       # size of tables          /* Now, zero out the BOOTSTRAP TABLES (before filling them in). */
         shrl    $2,%ecx          movl    %esi,%edi
         xorl    %eax,%eax          xorl    %eax,%eax
         cld          cld
           movl    RELOC(tablesize),%ecx
           shrl    $2,%ecx
         rep          rep
         stosl          stosl                           /* copy eax -> edi */
   
 /*  /*
  * fillkpt   * Build the page tables and levels. We go from L1 to L2/L3, and link the levels
  *      eax = pte (page frame | control | status)   * together. Note: RELOC computes &addr - KERNBASE in 32 bits; the value can't
  *      ebx = page table address   * be > 4G, or we can't deal with it anyway, since we are in 32bit mode.
  *      ecx = number of pages to map  
  */   */
 #define fillkpt         \          /*
 1:      movl    %eax,(%ebx)     ; \           * Build L1.
         addl    $PAGE_SIZE,%eax ; /* increment physical address */ \           */
         addl    $4,%ebx         ; /* next pte */ \          leal    (PROC0_PTP1_OFF)(%esi),%ebx
         loop    1b              ;  
   
 /*          /* Compute &__rodata_start - KERNBASE. */
  * Build initial page tables.          movl    $RELOC(__rodata_start),%edx
  */  
         /* Calculate end of text segment, rounded to a page. */  
         leal    (RELOC(etext)+PGOFSET),%edx  
         andl    $~PGOFSET,%edx          andl    $~PGOFSET,%edx
   
         /* Skip over the first 1MB. */          /* Skip the first MB. */
         movl    $_RELOC(KERNTEXTOFF),%eax          movl    $(KERNTEXTOFF - KERNBASE),%eax
         movl    %eax,%ecx          movl    %eax,%ecx
         shrl    $PGSHIFT,%ecx          shrl    $(PGSHIFT-2),%ecx       /* ((n >> PGSHIFT) << 2) for # PDEs */
         leal    (SYSMAP)(%esi,%ecx,4),%ebx  #ifdef PAE
           shll    $1,%ecx                 /* PDEs are twice larger with PAE */
   #endif
           addl    %ecx,%ebx
   
         /* Map the kernel text read-only. */          /* Map the kernel text read-only. */
         movl    %edx,%ecx          movl    %edx,%ecx
Line 530  try586: /* Use the `cpuid' instruction. 
Line 693  try586: /* Use the `cpuid' instruction. 
   
         /* Map the data, BSS, and bootstrap tables read-write. */          /* Map the data, BSS, and bootstrap tables read-write. */
         leal    (PG_V|PG_KW)(%edx),%eax          leal    (PG_V|PG_KW)(%edx),%eax
         movl    RELOC(nkpde),%ecx          movl    RELOC(tablesize),%ecx
         shll    $PGSHIFT,%ecx          addl    %esi,%ecx                       /* end of tables */
         addl    $TABLESIZE,%ecx          subl    %edx,%ecx                       /* subtract end of text */
         addl    %esi,%ecx                               # end of tables  
         subl    %edx,%ecx                               # subtract end of text  
         shrl    $PGSHIFT,%ecx          shrl    $PGSHIFT,%ecx
         fillkpt          fillkpt
   
         /* Map ISA I/O memory. */          /* Map ISA I/O mem (later atdevbase) */
         movl    $(IOM_BEGIN|PG_V|PG_KW/*|PG_N*/),%eax   # having these bits set          movl    $(IOM_BEGIN|PG_V|PG_KW/*|PG_N*/),%eax
         movl    $(IOM_SIZE>>PGSHIFT),%ecx               # for this many pte s,          movl    $(IOM_SIZE>>PGSHIFT),%ecx
         fillkpt          fillkpt
   
 /*          /*
  * Construct a page table directory.           * Build L2 for identity mapping. Linked to L1.
  */           */
         /* Install PDEs for temporary double map of kernel. */          leal    (PROC0_PDIR_OFF)(%esi),%ebx
         movl    RELOC(nkpde),%ecx                       # for this many pde s,          leal    (PROC0_PTP1_OFF)(%esi),%eax
         leal    (PROC0PDIR+0*4)(%esi),%ebx              # which is where temp maps!          orl     $(PG_V|PG_KW),%eax
         leal    (SYSMAP+PG_V|PG_KW)(%esi),%eax          # pte for KPT in proc 0,          movl    RELOC(nkptp)+1*4,%ecx
         fillkpt          fillkpt
   
         /* Map kernel PDEs. */          /* Set up L2 entries for actual kernel mapping */
         movl    RELOC(nkpde),%ecx                       # for this many pde s,          leal    (PROC0_PDIR_OFF + L2_SLOT_KERNBASE * PDE_SIZE)(%esi),%ebx
         leal    (PROC0PDIR+PDSLOT_KERN*4)(%esi),%ebx    # kernel pde offset          leal    (PROC0_PTP1_OFF)(%esi),%eax
         leal    (SYSMAP+PG_V|PG_KW)(%esi),%eax          # pte for KPT in proc 0,          orl     $(PG_V|PG_KW),%eax
           movl    RELOC(nkptp)+1*4,%ecx
         fillkpt          fillkpt
   
         /* Install a PDE recursively mapping page directory as a page table! */          /* Install a PDE recursively mapping page directory as a page table! */
         leal    (PROC0PDIR+PG_V|PG_KW)(%esi),%eax       # pte for ptd          leal    (PROC0_PDIR_OFF + PDIR_SLOT_PTE * PDE_SIZE)(%esi),%ebx
         movl    %eax,(PROC0PDIR+PDSLOT_PTE*4)(%esi)     # recursive PD slot          leal    (PROC0_PDIR_OFF)(%esi),%eax
           orl     $(PG_V|PG_KW),%eax
           movl    $PDP_SIZE,%ecx
           fillkpt
   
   #ifdef PAE
           /*
            * Build L3. Linked to L2.
            */
           leal    (PROC0_L3_OFF)(%esi),%ebx
           leal    (PROC0_PDIR_OFF)(%esi),%eax
           orl     $(PG_V),%eax
           movl    $PDP_SIZE,%ecx
           fillkpt
   
         /* Save phys. addr of PDP, for libkvm. */          /* Enable PAE mode */
         movl    %esi,RELOC(PDPpaddr)          movl    %cr4,%eax
           orl     $CR4_PAE,%eax
           movl    %eax,%cr4
   #endif
   
         /* Load base of page directory and enable mapping. */          /* Save physical address of L2. */
         movl    %esi,%eax               # phys address of ptd in proc 0          leal    (PROC0_PDIR_OFF)(%esi),%eax
         movl    %eax,%cr3               # load ptd addr into mmu          movl    %eax,RELOC(PDPpaddr)
         movl    %cr0,%eax               # get control word  
                                         # enable paging & NPX emulation  
         orl     $(CR0_PE|CR0_PG|CR0_NE|CR0_TS|CR0_EM|CR0_MP),%eax  
         movl    %eax,%cr0               # and let's page NOW!  
   
         pushl   $begin                  # jump to high mem          /*
            * Startup checklist:
            * 1. Load %cr3 with pointer to L2 (or L3 for PAE).
            */
           movl    %esi,%eax
           movl    %eax,%cr3
   
           /*
            * 2. Set NOX in EFER, if available.
            */
           movl    RELOC(nox_flag),%ebx
           cmpl    $0,%ebx
           je      skip_NOX
           movl    $MSR_EFER,%ecx
           rdmsr
           xorl    %eax,%eax
           orl     $(EFER_NXE),%eax
           wrmsr
   skip_NOX:
   
           /*
            * 3. Enable paging and the rest of it.
            */
           movl    %cr0,%eax
           orl     $(CR0_PE|CR0_PG|CR0_NE|CR0_TS|CR0_MP|CR0_WP|CR0_AM),%eax
           movl    %eax,%cr0
   
           pushl   $begin                  /* jump to high mem */
         ret          ret
   
 begin:  begin:
         /* Now running relocated at KERNBASE.  Remove double mapping. */          /*
         movl    _C_LABEL(nkpde),%ecx            # for this many pde s,           * We have arrived. There's no need anymore for the identity mapping in
         leal    (PROC0PDIR+0*4)(%esi),%ebx      # which is where temp maps!           * low memory, remove it.
         addl    $(KERNBASE), %ebx       # now use relocated address           */
 1:      movl    $0,(%ebx)          movl    _C_LABEL(nkptp)+1*4,%ecx
         addl    $4,%ebx # next pde          leal    (PROC0_PDIR_OFF)(%esi),%ebx     /* old, phys address of PDIR */
         loop    1b          addl    $(KERNBASE), %ebx               /* new, virt address of PDIR */
           killkpt
   
         /* Relocate atdevbase. */          /* Relocate atdevbase. */
         movl    _C_LABEL(nkpde),%edx          movl    $KERNBASE,%edx
         shll    $PGSHIFT,%edx          addl    _C_LABEL(tablesize),%edx
         addl    $(TABLESIZE+KERNBASE),%edx  
         addl    %esi,%edx          addl    %esi,%edx
         movl    %edx,_C_LABEL(atdevbase)          movl    %edx,_C_LABEL(atdevbase)
   
         /* Set up bootstrap stack. */          /* Set up bootstrap stack. */
         leal    (PROC0STACK+KERNBASE)(%esi),%eax          leal    (PROC0_STK_OFF+KERNBASE)(%esi),%eax
         movl    %eax,_C_LABEL(proc0uarea)          movl    %eax,_C_LABEL(lwp0uarea)
         leal    (KSTACK_SIZE-FRAMESIZE)(%eax),%esp          leal    (USPACE-FRAMESIZE)(%eax),%esp
         movl    %esi,(KSTACK_SIZE+PCB_CR3)(%eax)        # pcb->pcb_cr3          movl    %esi,PCB_CR3(%eax)      /* pcb->pcb_cr3 */
         xorl    %ebp,%ebp               # mark end of frames          xorl    %ebp,%ebp               /* mark end of frames */
   
 #if defined(MULTIBOOT)  #if defined(MULTIBOOT)
         /* It is now safe to parse the Multiboot information structure          /* It is now safe to parse the Multiboot information structure
Line 607  begin:
Line 808  begin:
         call    _C_LABEL(multiboot_post_reloc)          call    _C_LABEL(multiboot_post_reloc)
 #endif  #endif
   
         subl    $NGDT*8, %esp           # space for temporary gdt          subl    $NGDT*8, %esp           /* space for temporary gdt */
         pushl   %esp          pushl   %esp
         call    _C_LABEL(initgdt)          call    _C_LABEL(initgdt)
         addl    $4,%esp          addl    $4,%esp
   
         movl    _C_LABEL(nkpde),%eax          movl    _C_LABEL(tablesize),%eax
         shll    $PGSHIFT,%eax          addl    %esi,%eax               /* skip past stack and page tables */
         addl    $TABLESIZE,%eax  
         addl    %esi,%eax               # skip past stack and page tables  
   
   #ifdef PAE
           pushl   $0      /* init386() expects a 64 bits paddr_t with PAE */
   #endif
         pushl   %eax          pushl   %eax
         call    _C_LABEL(init386)       # wire 386 chip for unix operation          call    _C_LABEL(init386)       /* wire 386 chip for unix operation */
         addl    $4+NGDT*8,%esp          # pop temporary gdt          addl    $PDE_SIZE,%esp          /* pop paddr_t */
           addl    $NGDT*8,%esp            /* pop temporary gdt */
   
 #ifdef SAFARI_FIFO_HACK  #ifdef SAFARI_FIFO_HACK
         movb    $5,%al          movb    $5,%al
Line 640  begin:
Line 843  begin:
 #endif /* SAFARI_FIFO_HACK */  #endif /* SAFARI_FIFO_HACK */
   
         call    _C_LABEL(main)          call    _C_LABEL(main)
   #else /* XEN */
           /* First, reset the PSL. */
           pushl   $PSL_MBO
           popfl
   
 /*          cld
  * void proc_trampoline(void);          movl    %esp, %ebx              /* save start of available space */
  * This is a trampoline function pushed onto the stack of a newly created          movl    $_RELOC(tmpstk),%esp    /* bootstrap stack end location */
  * process in order to do some additional setup.  The trampoline is entered by  
  * cpu_switch()ing to the process, so we abuse the callee-saved registers used          /* Clear BSS. */
  * by cpu_switch() to store the information about the stub to call.          xorl    %eax,%eax
  * NOTE: This function does not have a normal calling sequence!          movl    $RELOC(__bss_start),%edi
  */          movl    $RELOC(_end),%ecx
 /* LINTSTUB: Func: void proc_trampoline(void) */          subl    %edi,%ecx
 NENTRY(proc_trampoline)          rep stosb
 #ifdef MULTIPROCESSOR  
         call    _C_LABEL(proc_trampoline_mp)          /* Copy the necessary stuff from start_info structure. */
 #endif          /* We need to copy shared_info early, so that sti/cli work */
         movl    $IPL_NONE,CPUVAR(ILEVEL)          movl    $RELOC(start_info_union),%edi
         pushl   %ebx          movl    $128,%ecx
         call    *%esi          rep movsl
   
           /* Clear segment registers; always null in proc0. */
           xorl    %eax,%eax
           movw    %ax,%fs
           movw    %ax,%gs
           decl    %eax
           movl    %eax,RELOC(cpuid_level)
   
           xorl    %eax,%eax
           cpuid
           movl    %eax,RELOC(cpuid_level)
   
           /*
            * Use a temp page. We'll re- add it to uvm(9) once we're
            * done using it.
            */
           movl    $RELOC(tmpgdt), %eax
           pushl   %eax            /* start of temporary gdt */
           call    _C_LABEL(initgdt)
         addl    $4,%esp          addl    $4,%esp
         DO_DEFERRED_SWITCH(%eax)  
         INTRFASTEXIT  
         /* NOTREACHED */  
   
 /*****************************************************************************/          call    xen_pmap_bootstrap
 #ifdef COMPAT_16  
 /*  
  * Signal trampoline; copied to top of user stack.  
  */  
 /* LINTSTUB: Var: char sigcode[1], esigcode[1]; */  
 NENTRY(sigcode)  
         /*          /*
          * Handler has returned here as if we called it.  The sigcontext           * First avail returned by xen_pmap_bootstrap in %eax
          * is on the stack after the 3 args "we" pushed.  
          */           */
         leal    12(%esp),%eax           # get pointer to sigcontext          movl    %eax, %esi;
         movl    %eax,4(%esp)            # put it in the argument slot          movl    %esi, _C_LABEL(lwp0uarea)
                                         # fake return address already there  
         movl    $SYS_compat_16___sigreturn14,%eax  
         int     $0x80                   # enter kernel with args on stack  
         movl    $SYS_exit,%eax  
         int     $0x80                   # exit if sigreturn fails  
         .globl  _C_LABEL(esigcode)  
 _C_LABEL(esigcode):  
 #endif  
   
 /*****************************************************************************/          /* Set up bootstrap stack. */
           leal    (USPACE-FRAMESIZE)(%eax),%esp
           xorl    %ebp,%ebp               /* mark end of frames */
   
 /*          addl    $USPACE, %esi
  * The following is i386-specific nonsense.          subl    $KERNBASE, %esi         /* init386 wants a physical address */
  */  
   #ifdef PAE
           pushl   $0      /* init386() expects a 64 bits paddr_t with PAE */
   #endif
           pushl   %esi
           call    _C_LABEL(init386)       /* wire 386 chip for unix operation */
           addl    $PDE_SIZE,%esp          /* pop paddr_t */
           call    _C_LABEL(main)
   #endif /* XEN */
   END(start)
   
   #if defined(XEN)
   /* space for the hypercall call page */
   #define HYPERCALL_PAGE_OFFSET 0x1000
   .org HYPERCALL_PAGE_OFFSET
   ENTRY(hypercall_page)
   .skip 0x1000
   END(hypercall_page)
   
 /*  /*
  * void lgdt(struct region_descriptor *rdp);   * void lgdt_finish(void);
  * Load a new GDT pointer (and do any necessary cleanup).   * Finish load a new GDT pointer (do any necessary cleanup).
  * XXX It's somewhat questionable whether reloading all the segment registers   * XXX It's somewhat questionable whether reloading all the segment registers
  * is necessary, since the actual descriptor data is not changed except by   * is necessary, since the actual descriptor data is not changed except by
  * process creation and exit, both of which clean up via task switches.  OTOH,   * process creation and exit, both of which clean up via task switches.  OTOH,
  * this only happens at run time when the GDT is resized.   * this only happens at run time when the GDT is resized.
  */   */
 /* LINTSTUB: Func: void lgdt(struct region_descriptor *rdp) */  /* LINTSTUB: Func: void lgdt_finish(void) */
 NENTRY(lgdt)  NENTRY(lgdt_finish)
         /* Reload the descriptor table. */  
         movl    4(%esp),%eax  
         lgdt    (%eax)  
         /* Flush the prefetch queue. */  
         jmp     1f  
         nop  
 1:      /* Reload "stale" selectors. */  
         movl    $GSEL(GDATA_SEL, SEL_KPL),%eax          movl    $GSEL(GDATA_SEL, SEL_KPL),%eax
         movw    %ax,%ds          movw    %ax,%ds
         movw    %ax,%es          movw    %ax,%es
Line 719  NENTRY(lgdt)
Line 940  NENTRY(lgdt)
         pushl   $GSEL(GCODE_SEL, SEL_KPL)          pushl   $GSEL(GCODE_SEL, SEL_KPL)
         pushl   %eax          pushl   %eax
         lret          lret
   END(lgdt_finish)
   
 /*****************************************************************************/  #endif /* XEN */
   
 /*  /*
  * These functions are primarily used by DDB.   * void lwp_trampoline(void);
    *
    * This is a trampoline function pushed onto the stack of a newly created
    * process in order to do some additional setup.  The trampoline is entered by
    * cpu_switchto()ing to the process, so we abuse the callee-saved
    * registers used by cpu_switchto() to store the information about the
    * stub to call.
    * NOTE: This function does not have a normal calling sequence!
  */   */
   NENTRY(lwp_trampoline)
           movl    %ebp,%edi       /* for .Lsyscall_checkast */
           xorl    %ebp,%ebp
           pushl   %edi
           pushl   %eax
           call    _C_LABEL(lwp_startup)
           addl    $8,%esp
           pushl   %ebx
           call    *%esi
           addl    $4,%esp
           jmp     .Lsyscall_checkast
           /* NOTREACHED */
   END(lwp_trampoline)
   
 /* LINTSTUB: Func: int setjmp (label_t *l) */  /*
    * sigcode()
    *
    * Signal trampoline; copied to top of user stack.  Used only for
    * compatibility with old releases of NetBSD.
    */
   NENTRY(sigcode)
           /*
            * Handler has returned here as if we called it.  The sigcontext
            * is on the stack after the 3 args "we" pushed.
            */
           leal    12(%esp),%eax           /* get pointer to sigcontext */
           movl    %eax,4(%esp)            /* put it in the argument slot */
                                           /* fake return address already there */
           movl    $SYS_compat_16___sigreturn14,%eax
           int     $0x80                   /* enter kernel with args on stack */
           movl    $SYS_exit,%eax
           int     $0x80                   /* exit if sigreturn fails */
           .globl  _C_LABEL(esigcode)
   _C_LABEL(esigcode):
   END(sigcode)
   
   /*
    * int setjmp(label_t *)
    *
    * Used primarily by DDB.
    */
 ENTRY(setjmp)  ENTRY(setjmp)
         movl    4(%esp),%eax          movl    4(%esp),%eax
         movl    %ebx,(%eax)             # save ebx          movl    %ebx,(%eax)             /* save ebx */
         movl    %esp,4(%eax)            # save esp          movl    %esp,4(%eax)            /* save esp */
         movl    %ebp,8(%eax)            # save ebp          movl    %ebp,8(%eax)            /* save ebp */
         movl    %esi,12(%eax)           # save esi          movl    %esi,12(%eax)           /* save esi */
         movl    %edi,16(%eax)           # save edi          movl    %edi,16(%eax)           /* save edi */
         movl    (%esp),%edx             # get rta          movl    (%esp),%edx             /* get rta */
         movl    %edx,20(%eax)           # save eip          movl    %edx,20(%eax)           /* save eip */
         xorl    %eax,%eax               # return (0);          xorl    %eax,%eax               /* return 0 */
         ret          ret
   END(setjmp)
   
 /* LINTSTUB: Func: void longjmp (label_t *l) */  /*
    * int longjmp(label_t *)
    *
    * Used primarily by DDB.
    */
 ENTRY(longjmp)  ENTRY(longjmp)
         movl    4(%esp),%eax          movl    4(%esp),%eax
         movl    (%eax),%ebx             # restore ebx          movl    (%eax),%ebx             /* restore ebx */
         movl    4(%eax),%esp            # restore esp          movl    4(%eax),%esp            /* restore esp */
         movl    8(%eax),%ebp            # restore ebp          movl    8(%eax),%ebp            /* restore ebp */
         movl    12(%eax),%esi           # restore esi          movl    12(%eax),%esi           /* restore esi */
         movl    16(%eax),%edi           # restore edi          movl    16(%eax),%edi           /* restore edi */
         movl    20(%eax),%edx           # get rta          movl    20(%eax),%edx           /* get rta */
         movl    %edx,(%esp)             # put in return frame          movl    %edx,(%esp)             /* put in return frame */
         xorl    %eax,%eax               # return (1);          movl    $1,%eax                 /* return 1 */
         incl    %eax  
         ret          ret
   END(longjmp)
   
 /*****************************************************************************/  /*
    * void dumpsys(void)
         .globl  _C_LABEL(sched_whichqs),_C_LABEL(sched_qs)   *
         .globl  _C_LABEL(uvmexp),_C_LABEL(panic)   * Mimic cpu_switchto() for postmortem debugging.
    */
 #ifdef DIAGNOSTIC  ENTRY(dumpsys)
 NENTRY(switch_error)          pushl   %ebx                    /* set up fake switchframe */
         pushl   $1f          pushl   %esi                    /* and save context */
         call    _C_LABEL(panic)          pushl   %edi
         /* NOTREACHED */          movl    %esp,_C_LABEL(dumppcb)+PCB_ESP
 1:      .asciz  "cpu_switch"          movl    %ebp,_C_LABEL(dumppcb)+PCB_EBP
 #endif /* DIAGNOSTIC */          call    _C_LABEL(dodumpsys)     /* dump! */
           addl    $(3*4), %esp            /* unwind switchframe */
           ret
   END(dumpsys)
   
 /*  /*
  * void cpu_switch(struct lwp *)   * struct lwp *cpu_switchto(struct lwp *oldlwp, struct lwp *newlwp,
  * Find a runnable lwp and switch to it.  Wait if necessary.  If the new   *                          bool returning)
  * lwp is the same as the old one, we short-circuit the context save and  
  * restore.  
  *   *
  * Note that the stack frame layout is known to "struct switchframe"   *      1. if (oldlwp != NULL), save its context.
  * in <machine/frame.h> and to the code in cpu_fork() which initializes   *      2. then, restore context of newlwp.
    *
    * Note that the stack frame layout is known to "struct switchframe" in
    * <machine/frame.h> and to the code in cpu_lwp_fork() which initializes
  * it for a new lwp.   * it for a new lwp.
  */   */
 ENTRY(cpu_switch)  ENTRY(cpu_switchto)
         pushl   %ebx          pushl   %ebx
         pushl   %esi          pushl   %esi
         pushl   %edi          pushl   %edi
   
 #ifdef DEBUG  #if defined(DIAGNOSTIC) && !defined(XEN)
         cmpl    $IPL_SCHED,CPUVAR(ILEVEL)          cmpl    $IPL_SCHED,CPUVAR(ILEVEL)
         jae     1f          jbe     0f
         pushl   $2f          pushl   CPUVAR(ILEVEL)
           pushl   $.Lstr
         call    _C_LABEL(panic)          call    _C_LABEL(panic)
         /* NOTREACHED */          addl    $8,%esp
 2:      .asciz  "not splsched() in cpu_switch!"  .Lstr:  .string "cpu_switchto: switching above IPL_SCHED (%d)\0"
 1:  0:
 #endif /* DEBUG */  
   
         movl    16(%esp),%esi           # current  
   
         /*  
          * Clear curlwp so that we don't accumulate system time while idle.  
          * This also insures that schedcpu() will move the old lwp to  
          * the correct queue if it happens to get called from the spllower()  
          * below and changes the priority.  (See corresponding comment in  
          * userret()).  
          */  
         movl    $0,CPUVAR(CURLWP)  
         /*  
          * First phase: find new lwp.  
          *  
          * Registers:  
          *   %eax - queue head, scratch, then zero  
          *   %ebx - queue number  
          *   %ecx - cached value of whichqs  
          *   %edx - next lwp in queue  
          *   %esi - old lwp  
          *   %edi - new lwp  
          */  
   
         /* Look for new lwp. */  
         cli                             # splhigh doesn't do a cli  
         movl    _C_LABEL(sched_whichqs),%ecx  
         bsfl    %ecx,%ebx               # find a full q  
         jnz     switch_dequeue  
   
         /*  
          * idling:      save old context.  
          *  
          * Registers:  
          *   %eax, %ecx - scratch  
          *   %esi - old lwp, then old pcb  
          *   %edi - idle pcb  
          */  
   
         pushl   %esi  
         call    _C_LABEL(pmap_deactivate2)      # pmap_deactivate(oldproc)  
         addl    $4,%esp  
   
         movl    L_ADDR(%esi),%esi  
   
         /* Save stack pointers. */  
         movl    %esp,PCB_ESP(%esi)  
         movl    %ebp,PCB_EBP(%esi)  
   
         /* Find idle PCB for this CPU */  
 #ifndef MULTIPROCESSOR  
         movl    $_C_LABEL(lwp0),%ebx  
         movl    L_ADDR(%ebx),%edi  
         movl    L_MD_TSS_SEL(%ebx),%edx  
 #else  
         movl    CPUVAR(IDLE_PCB),%edi  
         movl    CPUVAR(IDLE_TSS_SEL),%edx  
 #endif  
         movl    $0,CPUVAR(CURLWP)               /* In case we fault... */  
   
         /* Restore the idle context (avoid interrupts) */  
         cli  
   
         /* Restore stack pointers. */  
         movl    PCB_ESP(%edi),%esp  
         movl    PCB_EBP(%edi),%ebp  
   
         /* Switch TSS. Reset "task busy" flag before loading. */  
         movl    %cr3,%eax  
         movl    %eax,PCB_CR3(%edi)  
 #ifdef MULTIPROCESSOR  
         movl    CPUVAR(GDT),%eax  
 #else  
         movl    _C_LABEL(gdt),%eax  
 #endif  #endif
         andl    $~0x0200,4-SEL_KPL(%eax,%edx,1)  
         ltr     %dx  
   
         /* We're always in the kernel, so we don't need the LDT. */          movl    16(%esp),%esi           /* oldlwp */
           movl    20(%esp),%edi           /* newlwp */
         /* Restore cr0 (including FPU state). */          movl    24(%esp),%edx           /* returning */
         movl    PCB_CR0(%edi),%ecx          testl   %esi,%esi
         movl    %ecx,%cr0          jz      1f
   
         /* Record new pcb. */  
         SET_CURPCB(%edi)  
   
         xorl    %esi,%esi          /* Save old context. */
         sti          movl    L_PCB(%esi),%eax
 idle_unlock:          movl    %esp,PCB_ESP(%eax)
 #if defined(MULTIPROCESSOR) || defined(LOCKDEBUG)          movl    %ebp,PCB_EBP(%eax)
         call    _C_LABEL(sched_unlock_idle)  
 #endif          /* Switch to newlwp's stack. */
         /* Interrupts are okay again. */  1:      movl    L_PCB(%edi),%ebx
         pushl   $IPL_NONE               # spl0()          movl    PCB_EBP(%ebx),%ebp
         call    _C_LABEL(Xspllower)     # process pending interrupts          movl    PCB_ESP(%ebx),%esp
         addl    $4,%esp  
         jmp     idle_start  
 idle_zero:  
         sti  
         call    _C_LABEL(uvm_pageidlezero)  
         cli  
         cmpl    $0,_C_LABEL(sched_whichqs)  
         jnz     idle_exit  
 idle_loop:  
         /* Try to zero some pages. */  
         movl    _C_LABEL(uvm)+UVM_PAGE_IDLE_ZERO,%ecx  
         testl   %ecx,%ecx  
         jnz     idle_zero  
         sti  
         hlt  
 NENTRY(mpidle)  
 idle_start:  
         cli  
         cmpl    $0,_C_LABEL(sched_whichqs)  
         jz      idle_loop  
 idle_exit:  
         movl    $IPL_HIGH,CPUVAR(ILEVEL)                # splhigh  
         sti  
 #if defined(MULTIPROCESSOR) || defined(LOCKDEBUG)  
         call    _C_LABEL(sched_lock_idle)  
 #endif  
         movl    _C_LABEL(sched_whichqs),%ecx  
         bsfl    %ecx,%ebx  
         jz      idle_unlock  
   
 switch_dequeue:  
         /*          /*
          * we're running at splhigh(), but it's otherwise okay to take           * Set curlwp.  This must be globally visible in order to permit
          * interrupts here.           * non-interlocked mutex release.
          */           */
         sti          movl    %edi,%ecx
         leal    _C_LABEL(sched_qs)(,%ebx,8),%eax # select q          xchgl   %ecx,CPUVAR(CURLWP)
   
         movl    L_FORW(%eax),%edi       # unlink from front of process q  
 #ifdef  DIAGNOSTIC  
         cmpl    %edi,%eax               # linked to self (i.e. nothing queued)?  
         je      _C_LABEL(switch_error)  # not possible  
 #endif /* DIAGNOSTIC */  
         movl    L_FORW(%edi),%edx  
         movl    %edx,L_FORW(%eax)  
         movl    %eax,L_BACK(%edx)  
   
         cmpl    %edx,%eax               # q empty?  
         jne     3f  
   
         btrl    %ebx,%ecx               # yes, clear to indicate empty  
         movl    %ecx,_C_LABEL(sched_whichqs) # update q status  
   
 3:      /* We just did it. */          /* Skip the rest if returning to a pinned LWP. */
         xorl    %eax,%eax          testl   %edx,%edx
         CLEAR_RESCHED(%eax)          jnz     4f
   
 switch_resume:  
 #ifdef  DIAGNOSTIC  
         cmpl    %eax,L_WCHAN(%edi)      # Waiting for something?  
         jne     _C_LABEL(switch_error)  # Yes; shouldn't be queued.  
         cmpb    $LSRUN,L_STAT(%edi)     # In run state?  
         jne     _C_LABEL(switch_error)  # No; shouldn't be queued.  
 #endif /* DIAGNOSTIC */  
   
         /* Isolate lwp.  XXX Is this necessary? */  
         movl    %eax,L_BACK(%edi)  
   
         /* Record new lwp. */  
         movb    $LSONPROC,L_STAT(%edi)  # l->l_stat = LSONPROC  
         SET_CURLWP(%edi,%ecx)  
   
         /* Skip context switch if same lwp. */  
         xorl    %ebx,%ebx  
         cmpl    %edi,%esi  
         je      switch_return  
   
         /* If old lwp exited, don't bother. */  
         testl   %esi,%esi  
         jz      switch_exited  
   
         /*  #ifdef XEN
          * Second phase: save old context.          pushl   %edi
          *          call    _C_LABEL(i386_switch_context)
          * Registers:  
          *   %eax, %ecx - scratch  
          *   %esi - old lwp, then old pcb  
          *   %edi - new lwp  
          */  
   
         pushl   %esi  
         call    _C_LABEL(pmap_deactivate2)      # pmap_deactivate(oldproc)  
         addl    $4,%esp          addl    $4,%esp
   #else /* !XEN */
           /* Switch ring0 esp */
           movl    PCB_ESP0(%ebx),%eax
           movl    %eax,CPUVAR(ESP0)
   #endif /* !XEN */
   
         movl    L_ADDR(%esi),%esi          /* Don't bother with the rest if switching to a system process. */
           testl   $LW_SYSTEM,L_FLAG(%edi)
           jnz     4f
   
         /* Save stack pointers. */  #ifndef XEN
         movl    %esp,PCB_ESP(%esi)          /* Restore thread-private %fs/%gs descriptors. */
         movl    %ebp,PCB_EBP(%esi)          movl    CPUVAR(GDT),%ecx
           movl    PCB_FSD(%ebx), %eax
           movl    PCB_FSD+4(%ebx), %edx
           movl    %eax, (GUFS_SEL*8)(%ecx)
           movl    %edx, (GUFS_SEL*8+4)(%ecx)
           movl    PCB_GSD(%ebx), %eax
           movl    PCB_GSD+4(%ebx), %edx
           movl    %eax, (GUGS_SEL*8)(%ecx)
           movl    %edx, (GUGS_SEL*8+4)(%ecx)
   #endif /* !XEN */
   
           /* Switch I/O bitmap */
           movl    PCB_IOMAP(%ebx),%eax
           orl     %eax,%eax
           jnz     .Lcopy_iobitmap
           movl    $(IOMAP_INVALOFF << 16),CPUVAR(IOBASE)
   .Liobitmap_done:
   
           /* Is this process using RAS (restartable atomic sequences)? */
           movl    L_PROC(%edi),%eax
           cmpl    $0,P_RASLIST(%eax)
           jne     5f
   
 switch_exited:  
         /*          /*
          * Third phase: restore saved context.           * Restore cr0 (including FPU state).  Raise the IPL to IPL_HIGH.
          *           * FPU IPIs can alter the LWP's saved cr0.  Dropping the priority
          * Registers:           * is deferred until mi_switch(), when cpu_switchto() returns.
          *   %eax, %ebx, %ecx, %edx - scratch  
          *   %esi - new pcb  
          *   %edi - new lwp  
          */           */
   2:
         /* No interrupts while loading new state. */  #ifdef XEN
         cli  
         movl    L_ADDR(%edi),%esi  
   
         /* Restore stack pointers. */  
         movl    PCB_ESP(%esi),%esp  
         movl    PCB_EBP(%esi),%ebp  
   
 #if 0  
         /* Don't bother with the rest if switching to a system process. */  
         testl   $P_SYSTEM,L_FLAG(%edi); XXX NJWLWP lwp's don't have P_SYSTEM!  
         jnz     switch_restored  
 #endif  
   
         /* Switch TSS. Reset "task busy" flag before loading. */  
         movl    %cr3,%eax  
         movl    %eax,PCB_CR3(%esi) /* XXX should be done by pmap_activate? */  
 #ifdef MULTIPROCESSOR  
         movl    CPUVAR(GDT),%eax  
 #else  
         /* Load TSS info. */  
         movl    _C_LABEL(gdt),%eax  
 #endif  
         movl    L_MD_TSS_SEL(%edi),%edx  
   
         andl    $~0x0200,4(%eax,%edx, 1)  
         ltr     %dx  
   
         pushl   %edi          pushl   %edi
         call    _C_LABEL(pmap_activate)         # pmap_activate(p)          call    _C_LABEL(i386_tls_switch)
         addl    $4,%esp          addl    $4,%esp
   #else /* !XEN */
           movl    $IPL_HIGH,CPUVAR(ILEVEL)
           movl    PCB_CR0(%ebx),%ecx              /* has CR0_TS clear */
           movl    %cr0,%edx
   
 #if 0  
 switch_restored:  
 #endif  
         /* Restore cr0 (including FPU state). */  
         movl    PCB_CR0(%esi),%ecx  
 #ifdef MULTIPROCESSOR  
         /*          /*
          * If our floating point registers are on a different CPU,           * If our floating point registers are on a different CPU,
          * clear CR0_TS so we'll trap rather than reuse bogus state.           * set CR0_TS so we'll trap rather than reuse bogus state.
          */           */
         movl    PCB_FPCPU(%esi),%ebx          cmpl    CPUVAR(FPCURLWP),%edi
         cmpl    CPUVAR(SELF),%ebx          je      3f
         jz      1f  
         orl     $CR0_TS,%ecx          orl     $CR0_TS,%ecx
 1:  
 #endif  
         movl    %ecx,%cr0  
   
         /* Record new pcb. */  
         SET_CURPCB(%esi)  
   
         /* Interrupts are okay again. */  
         sti  
   
 /*          /* Reloading CR0 is very expensive - avoid if possible. */
  *  Check for restartable atomic sequences (RAS)  3:      cmpl    %edx,%ecx
  */          je      4f
         movl    CPUVAR(CURLWP),%edi          movl    %ecx,%cr0
         movl    L_PROC(%edi),%esi  #endif /* !XEN */
         cmpl    $0,P_RASLIST(%esi)  
         jne     2f  
 1:  
         movl    $1,%ebx  
   
 switch_return:  
 #if defined(MULTIPROCESSOR) || defined(LOCKDEBUG)  
         call    _C_LABEL(sched_unlock_idle)  
 #endif  
         cmpl    $0,CPUVAR(IPENDING)  
         jz      3f  
         pushl   $IPL_NONE               # spl0()  
         call    _C_LABEL(Xspllower)     # process pending interrupts  
         addl    $4,%esp  
 3:  
         movl    $IPL_HIGH,CPUVAR(ILEVEL)        # splhigh()  
   
         movl    %ebx,%eax  
   
           /* Return to the new LWP, returning 'oldlwp' in %eax. */
   4:      movl    %esi,%eax
         popl    %edi          popl    %edi
         popl    %esi          popl    %esi
         popl    %ebx          popl    %ebx
         ret          ret
   
 2:                                      # check RAS list          /* Check for restartable atomic sequences (RAS). */
         movl    L_MD_REGS(%edi),%ebx  5:      movl    L_MD_REGS(%edi),%ecx
         movl    TF_EIP(%ebx),%eax          pushl   TF_EIP(%ecx)
         pushl   %eax          pushl   %eax
         pushl   %esi  
         call    _C_LABEL(ras_lookup)          call    _C_LABEL(ras_lookup)
         addl    $8,%esp          addl    $8,%esp
         cmpl    $-1,%eax          cmpl    $-1,%eax
         je      1b          je      2b
         movl    %eax,TF_EIP(%ebx)          movl    L_MD_REGS(%edi),%ecx
         jmp     1b          movl    %eax,TF_EIP(%ecx)
           jmp     2b
   
 /*  .Lcopy_iobitmap:
  * void cpu_switchto(struct lwp *current, struct lwp *next)          /* Copy I/O bitmap. */
  * Switch to the specified next LWP.          incl    _C_LABEL(pmap_iobmp_evcnt)+EV_COUNT
  */          movl    $(IOMAPSIZE/4),%ecx
 ENTRY(cpu_switchto)  
         pushl   %ebx  
         pushl   %esi          pushl   %esi
         pushl   %edi          pushl   %edi
           movl    %eax,%esi               /* pcb_iomap */
 #ifdef DEBUG          movl    CPUVAR(SELF),%edi
         cmpl    $IPL_SCHED,CPUVAR(ILEVEL)          leal    CPU_INFO_IOMAP(%edi),%edi
         jae     1f          rep
         pushl   $2f          movsl
         call    _C_LABEL(panic)          popl    %edi
         /* NOTREACHED */          popl    %esi
 2:      .asciz  "not splsched() in cpu_switchto!"          movl    $((CPU_INFO_IOMAP - CPU_INFO_TSS) << 16),CPUVAR(IOBASE)
 1:          jmp     .Liobitmap_done
 #endif /* DEBUG */  END(cpu_switchto)
   
         movl    16(%esp),%esi           # current  
         movl    20(%esp),%edi           # next  
   
         /*  
          * Clear curlwp so that we don't accumulate system time while idle.  
          * This also insures that schedcpu() will move the old process to  
          * the correct queue if it happens to get called from the spllower()  
          * below and changes the priority.  (See corresponding comment in  
          * usrret()).  
          *  
          * XXX Is this necessary?  We know we won't go idle.  
          */  
         movl    $0,CPUVAR(CURLWP)  
   
         /*  
          * We're running at splhigh(), but it's otherwise okay to take  
          * interrupts here.  
          */  
         sti  
   
         /* Jump into the middle of cpu_switch */  
         xorl    %eax,%eax  
         jmp     switch_resume  
   
 /*  
  * void cpu_exit(struct lwp *l)  
  * Switch to the appropriate idle context (lwp0's if uniprocessor; the CPU's  
  * if multiprocessor) and deallocate the address space and kernel stack for p.  
  * Then jump into cpu_switch(), as if we were in the idle proc all along.  
  */  
 #ifndef MULTIPROCESSOR  
         .globl  _C_LABEL(lwp0)  
 #endif  
 /* LINTSTUB: Func: void cpu_exit(struct lwp *l) */  
 ENTRY(cpu_exit)  
         movl    4(%esp),%edi            # old process  
 #ifndef MULTIPROCESSOR  
         movl    $_C_LABEL(lwp0),%ebx  
         movl    L_ADDR(%ebx),%esi  
         movl    L_MD_TSS_SEL(%ebx),%edx  
 #else  
         movl    CPUVAR(IDLE_PCB),%esi  
         movl    CPUVAR(IDLE_TSS_SEL),%edx  
 #endif  
         /* In case we fault... */  
         movl    $0,CPUVAR(CURLWP)  
   
         /* Restore the idle context. */  
         cli  
   
         /* Restore stack pointers. */  
         movl    PCB_ESP(%esi),%esp  
         movl    PCB_EBP(%esi),%ebp  
   
         /* Switch TSS. Reset "task busy" flag before loading. */  
         movl    %cr3,%eax  
         movl    %eax,PCB_CR3(%esi)  
 #ifdef MULTIPROCESSOR  
         movl    CPUVAR(GDT),%eax  
 #else  
         /* Load TSS info. */  
         movl    _C_LABEL(gdt),%eax  
 #endif  
   
         andl    $~0x0200,4-SEL_KPL(%eax,%edx,1)  
         ltr     %dx  
   
         /* We're always in the kernel, so we don't need the LDT. */  
   
         /* Restore cr0 (including FPU state). */  
         movl    PCB_CR0(%esi),%ecx  
         movl    %ecx,%cr0  
   
         /* Record new pcb. */  
         SET_CURPCB(%esi)  
   
         /* Interrupts are okay again. */  
         sti  
   
         /*  
          * Schedule the dead LWP's stack to be freed.  
          */  
         pushl   %edi  
         call    _C_LABEL(lwp_exit2)  
         addl    $4,%esp  
   
         /* Jump into cpu_switch() with the right state. */  
         xorl    %esi,%esi  
         movl    %esi,CPUVAR(CURLWP)  
         jmp     idle_start  
   
 /*  /*
  * void savectx(struct pcb *pcb);   * void savectx(struct pcb *pcb);
    *
  * Update pcb, saving current processor state.   * Update pcb, saving current processor state.
  */   */
 /* LINTSTUB: Func: void savectx(struct pcb *pcb) */  
 ENTRY(savectx)  ENTRY(savectx)
         movl    4(%esp),%edx            # edx = p->p_addr          movl    4(%esp),%edx            /* edx = pcb */
   
         /* Save stack pointers. */  
         movl    %esp,PCB_ESP(%edx)          movl    %esp,PCB_ESP(%edx)
         movl    %ebp,PCB_EBP(%edx)          movl    %ebp,PCB_EBP(%edx)
   
         ret          ret
   END(savectx)
   
 /*  /*
    * osyscall()
    *
  * Old call gate entry for syscall   * Old call gate entry for syscall
  */   */
 /* LINTSTUB: Var: char Xosyscall[1]; */  
 IDTVEC(osyscall)  IDTVEC(osyscall)
         /* Set eflags in trap frame. */  #ifndef XEN
         pushfl          /* XXX we are in trouble! interrupts be off here. */
           cli                     /* must be first instruction */
   #endif
           pushfl                  /* set eflags in trap frame */
         popl    8(%esp)          popl    8(%esp)
         pushl   $7              # size of instruction for restart          orl     $PSL_I,8(%esp)  /* re-enable ints on return to user */
           pushl   $7              /* size of instruction for restart */
         jmp     syscall1          jmp     syscall1
   IDTVEC_END(osyscall)
   
 /*  /*
    * syscall()
    *
  * Trap gate entry for syscall   * Trap gate entry for syscall
  */   */
 /* LINTSTUB: Var: char Xsyscall[1]; */  
 IDTVEC(syscall)  IDTVEC(syscall)
         pushl   $2              # size of instruction for restart          pushl   $2              /* size of instruction for restart */
 syscall1:  syscall1:
         pushl   $T_ASTFLT       # trap # for doing ASTs          pushl   $T_ASTFLT       /* trap # for doing ASTs */
         INTRENTRY          INTRENTRY
           STI(%eax)
 #ifdef DIAGNOSTIC  #ifdef DIAGNOSTIC
         cmpl    $0, CPUVAR(WANT_PMAPLOAD)  
         jz      1f  
         pushl   $6f  
         call    _C_LABEL(printf)  
         addl    $4, %esp  
 1:  
         movl    CPUVAR(ILEVEL),%ebx          movl    CPUVAR(ILEVEL),%ebx
         testl   %ebx,%ebx          testl   %ebx,%ebx
         jz      1f          jz      1f
         pushl   $5f          pushl   $5f
         call    _C_LABEL(printf)          call    _C_LABEL(panic)
         addl    $4,%esp          addl    $4,%esp
 #ifdef DDB  #ifdef DDB
         int     $3          int     $3
 #endif  #endif
 1:  1:
 #endif /* DIAGNOSTIC */  #endif /* DIAGNOSTIC */
         movl    CPUVAR(CURLWP),%edx          addl    $1,CPUVAR(NSYSCALL)     /* count it atomically */
         movl    %esp,L_MD_REGS(%edx)    # save pointer to frame          adcl    $0,CPUVAR(NSYSCALL)+4   /* count it atomically */
         movl    L_PROC(%edx),%edx          movl    CPUVAR(CURLWP),%edi
           movl    L_PROC(%edi),%edx
           movl    %esp,L_MD_REGS(%edi)    /* save pointer to frame */
         pushl   %esp          pushl   %esp
         call    *P_MD_SYSCALL(%edx)     # get pointer to syscall() function          call    *P_MD_SYSCALL(%edx)     /* get pointer to syscall() function */
         addl    $4,%esp          addl    $4,%esp
 .Lsyscall_checkast:  .Lsyscall_checkast:
         /* Check for ASTs on exit to user mode. */          /* Check for ASTs on exit to user mode. */
           CLI(%eax)
           movl    L_MD_ASTPENDING(%edi), %eax
           orl     CPUVAR(WANT_PMAPLOAD), %eax
           jnz     9f
   #ifdef XEN
           STIC(%eax)
           jz      14f
           call    _C_LABEL(stipending)
           testl   %eax,%eax
           jz      14f
           /* process pending interrupts */
           CLI(%eax)
           movl    CPUVAR(ILEVEL), %ebx
           movl    $.Lsyscall_resume, %esi /* address to resume loop at */
   .Lsyscall_resume:
           movl    %ebx,%eax               /* get cpl */
           movl    CPUVAR(IUNMASK)(,%eax,4),%eax
           andl    CPUVAR(IPENDING),%eax   /* any non-masked bits left? */
           jz      17f
           bsrl    %eax,%eax
           btrl    %eax,CPUVAR(IPENDING)
           movl    CPUVAR(ISOURCES)(,%eax,4),%eax
           jmp     *IS_RESUME(%eax)
   17:     movl    %ebx, CPUVAR(ILEVEL)    /* restore cpl  */
           jmp     .Lsyscall_checkast
   14:
   #endif /* XEN */
   #ifndef DIAGNOSTIC
           INTRFASTEXIT
   #else /* DIAGNOSTIC */
           cmpl    $IPL_NONE,CPUVAR(ILEVEL)
           jne     3f
           INTRFASTEXIT
   3:      STI(%eax)
           pushl   $4f
           call    _C_LABEL(panic)
           addl    $4,%esp
           pushl   $IPL_NONE
           call    _C_LABEL(spllower)
           addl    $4,%esp
           jmp     .Lsyscall_checkast
   4:      .asciz  "SPL NOT LOWERED ON SYSCALL EXIT\n"
   5:      .asciz  "SPL NOT ZERO ON SYSCALL ENTRY\n"
   #endif /* DIAGNOSTIC */
   9:
           cmpl    $0, CPUVAR(WANT_PMAPLOAD)
           jz      10f
           STI(%eax)
           call    _C_LABEL(pmap_load)
           jmp     .Lsyscall_checkast      /* re-check ASTs */
   10:
           /* Always returning to user mode here. */
           movl    $0, L_MD_ASTPENDING(%edi)
           STI(%eax)
           /* Pushed T_ASTFLT into tf_trapno on entry. */
           pushl   %esp
           call    _C_LABEL(trap)
           addl    $4,%esp
           jmp     .Lsyscall_checkast      /* re-check ASTs */
   IDTVEC_END(syscall)
   
   IDTVEC(svr4_fasttrap)
           pushl   $2              /* size of instruction for restart */
           pushl   $T_ASTFLT       /* trap # for doing ASTs */
           INTRENTRY
           STI(%eax)
           pushl   $RW_READER
           pushl   $_C_LABEL(svr4_fasttrap_lock)
           call    _C_LABEL(rw_enter)
           addl    $8,%esp
           call    *_C_LABEL(svr4_fasttrap_vec)
           pushl   $_C_LABEL(svr4_fasttrap_lock)
           call    _C_LABEL(rw_exit)
           addl    $4,%esp
   2:      /* Check for ASTs on exit to user mode. */
         cli          cli
         CHECK_ASTPENDING(%eax)          CHECK_ASTPENDING(%eax)
         je      1f          je      1f
Line 1273  syscall1:
Line 1347  syscall1:
         pushl   %esp          pushl   %esp
         call    _C_LABEL(trap)          call    _C_LABEL(trap)
         addl    $4,%esp          addl    $4,%esp
         jmp     .Lsyscall_checkast      /* re-check ASTs */          jmp     2b
 1:      CHECK_DEFERRED_SWITCH(%eax)  1:      CHECK_DEFERRED_SWITCH
         jnz     9f          jnz     9f
 #ifndef DIAGNOSTIC  
         INTRFASTEXIT          INTRFASTEXIT
 #else /* DIAGNOSTIC */  
         cmpl    $IPL_NONE,CPUVAR(ILEVEL)  
         jne     3f  
         INTRFASTEXIT  
 3:      sti  
         pushl   $4f  
         call    _C_LABEL(printf)  
         addl    $4,%esp  
 #ifdef DDB  
         int     $3  
 #endif /* DDB */  
         movl    $IPL_NONE,CPUVAR(ILEVEL)  
         jmp     2b  
 4:      .asciz  "WARNING: SPL NOT LOWERED ON SYSCALL EXIT\n"  
 5:      .asciz  "WARNING: SPL NOT ZERO ON SYSCALL ENTRY\n"  
 6:      .asciz  "WARNING: WANT PMAPLOAD ON SYSCALL ENTRY\n"  
 #endif /* DIAGNOSTIC */  
 9:      sti  9:      sti
         call    _C_LABEL(pmap_load)          call    _C_LABEL(pmap_load)
         jmp     .Lsyscall_checkast      /* re-check ASTs */          cli
           jmp     2b
   
 #if NNPX > 0  
 /*  /*
  * Special interrupt handlers.  Someday intr0-intr15 will be used to count   * int npx586bug1(int a, int b)
  * interrupts.  We'll still need a special exception 16 handler.  The busy   * Used when checking for the FDIV bug on first generations pentiums.
  * latch stuff in probintr() can be moved to npxprobe().   * Anything 120MHz or above is fine.
  */   */
   
 /* LINTSTUB: Func: void probeintr(void) */  
 NENTRY(probeintr)  
         ss  
         incl    _C_LABEL(npx_intrs_while_probing)  
         pushl   %eax  
         movb    $0x20,%al       # EOI (asm in strings loses cpp features)  
         outb    %al,$0xa0       # IO_ICU2  
         outb    %al,$0x20       # IO_ICU1  
         movb    $0,%al  
         outb    %al,$0xf0       # clear BUSY# latch  
         popl    %eax  
         iret  
   
 /* LINTSTUB: Func: void probetrap(void) */  
 NENTRY(probetrap)  
         ss  
         incl    _C_LABEL(npx_traps_while_probing)  
         fnclex  
         iret  
   
 /* LINTSTUB: Func: int npx586bug1(int a, int b) */  
 NENTRY(npx586bug1)  NENTRY(npx586bug1)
         fildl   4(%esp)         # x          fildl   4(%esp)         /* x */
         fildl   8(%esp)         # y          fildl   8(%esp)         /* y */
         fld     %st(1)          fld     %st(1)
         fdiv    %st(1),%st      # x/y          fdiv    %st(1),%st      /* x/y */
         fmulp   %st,%st(1)      # (x/y)*y          fmulp   %st,%st(1)      /* (x/y)*y */
         fsubrp  %st,%st(1)      # x-(x/y)*y          fsubrp  %st,%st(1)      /* x-(x/y)*y */
         pushl   $0          pushl   $0
         fistpl  (%esp)          fistpl  (%esp)
         popl    %eax          popl    %eax
         ret          ret
 #endif /* NNPX > 0 */  END(npx586bug1)
   
   /*
    * void sse2_idlezero_page(void *pg)
    *
    * Zero a page without polluting the cache.  Preemption must be
    * disabled by the caller. Abort if a preemption is pending.
    */
   ENTRY(sse2_idlezero_page)
           pushl   %ebp
           movl    %esp,%ebp
           movl    8(%esp), %edx
           movl    $(PAGE_SIZE/32), %ecx
           xorl    %eax, %eax
           .align  16
   1:
           testl   $RESCHED_KPREEMPT, CPUVAR(RESCHED)
           jnz     2f
           movnti  %eax, 0(%edx)
           movnti  %eax, 4(%edx)
           movnti  %eax, 8(%edx)
           movnti  %eax, 12(%edx)
           movnti  %eax, 16(%edx)
           movnti  %eax, 20(%edx)
           movnti  %eax, 24(%edx)
           movnti  %eax, 28(%edx)
           addl    $32, %edx
           decl    %ecx
           jnz     1b
           sfence
           incl    %eax
           pop     %ebp
           ret
   2:
           sfence
           popl    %ebp
           ret
   END(sse2_idlezero_page)

Legend:
Removed from v.1.44  
changed lines
  Added in v.1.119

CVSweb <webmaster@jp.NetBSD.org>