[BACK]Return to locore.S CVS log [TXT][DIR] Up to [cvs.NetBSD.org] / src / sys / arch / i386 / i386

Please note that diffs are not public domain; they are subject to the copyright notices on the relevant files.

Diff for /src/sys/arch/i386/i386/locore.S between version 1.34.2.10 and 1.35

version 1.34.2.10, 2008/03/17 09:14:20 version 1.35, 2005/11/07 11:42:34
Line 1 
Line 1 
 /*      $NetBSD$        */  /*      $NetBSD$        */
   
 /*  
  * Copyright-o-rama!  
  */  
   
 /*  
  * Copyright (c) 2006 Manuel Bouyer.  
  *  
  * Redistribution and use in source and binary forms, with or without  
  * modification, are permitted provided that the following conditions  
  * are met:  
  * 1. Redistributions of source code must retain the above copyright  
  *    notice, this list of conditions and the following disclaimer.  
  * 2. Redistributions in binary form must reproduce the above copyright  
  *    notice, this list of conditions and the following disclaimer in the  
  *    documentation and/or other materials provided with the distribution.  
  * 3. All advertising materials mentioning features or use of this software  
  *    must display the following acknowledgement:  
  *      This product includes software developed by Manuel Bouyer.  
  * 4. The name of the author may not be used to endorse or promote products  
  *    derived from this software without specific prior written permission.  
  *  
  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR ``AS IS'' AND ANY EXPRESS OR  
  * IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES  
  * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.  
  * IN NO EVENT SHALL THE AUTHOR BE LIABLE FOR ANY DIRECT, INDIRECT,  
  * INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT  
  * NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,  
  * DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY  
  * THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT  
  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF  
  * THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.  
  *  
  */  
   
 /*  
  * Copyright (c) 2001 Wasabi Systems, Inc.  
  * All rights reserved.  
  *  
  * Written by Frank van der Linden for Wasabi Systems, Inc.  
  *  
  * Redistribution and use in source and binary forms, with or without  
  * modification, are permitted provided that the following conditions  
  * are met:  
  * 1. Redistributions of source code must retain the above copyright  
  *    notice, this list of conditions and the following disclaimer.  
  * 2. Redistributions in binary form must reproduce the above copyright  
  *    notice, this list of conditions and the following disclaimer in the  
  *    documentation and/or other materials provided with the distribution.  
  * 3. All advertising materials mentioning features or use of this software  
  *    must display the following acknowledgement:  
  *      This product includes software developed for the NetBSD Project by  
  *      Wasabi Systems, Inc.  
  * 4. The name of Wasabi Systems, Inc. may not be used to endorse  
  *    or promote products derived from this software without specific prior  
  *    written permission.  
  *  
  * THIS SOFTWARE IS PROVIDED BY WASABI SYSTEMS, INC. ``AS IS'' AND  
  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED  
  * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR  
  * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL WASABI SYSTEMS, INC  
  * BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR  
  * CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF  
  * SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS  
  * INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN  
  * CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)  
  * ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE  
  * POSSIBILITY OF SUCH DAMAGE.  
  */  
   
   
 /*-  /*-
  * Copyright (c) 1998, 2000, 2004, 2006, 2007 The NetBSD Foundation, Inc.   * Copyright (c) 1998, 2000, 2004 The NetBSD Foundation, Inc.
  * All rights reserved.   * All rights reserved.
  *   *
  * This code is derived from software contributed to The NetBSD Foundation   * This code is derived from software contributed to The NetBSD Foundation
Line 140 
Line 70 
  *      @(#)locore.s    7.3 (Berkeley) 5/13/91   *      @(#)locore.s    7.3 (Berkeley) 5/13/91
  */   */
   
 #include <machine/asm.h>  #include "opt_compat_netbsd.h"
 __KERNEL_RCSID(0, "$NetBSD$");  
   
 #include "opt_compat_oldboot.h"  #include "opt_compat_oldboot.h"
   #include "opt_cputype.h"
 #include "opt_ddb.h"  #include "opt_ddb.h"
   #include "opt_ipkdb.h"
   #include "opt_lockdebug.h"
   #include "opt_multiprocessor.h"
 #include "opt_realmem.h"  #include "opt_realmem.h"
   #include "opt_user_ldt.h"
 #include "opt_vm86.h"  #include "opt_vm86.h"
 #include "opt_xen.h"  
   
 #include "npx.h"  #include "npx.h"
 #include "assym.h"  #include "assym.h"
   #include "apm.h"
 #include "lapic.h"  #include "lapic.h"
 #include "ioapic.h"  #include "ioapic.h"
 #include "ksyms.h"  #include "ksyms.h"
Line 162  __KERNEL_RCSID(0, "$NetBSD$");
Line 95  __KERNEL_RCSID(0, "$NetBSD$");
 #include <machine/segments.h>  #include <machine/segments.h>
 #include <machine/specialreg.h>  #include <machine/specialreg.h>
 #include <machine/trap.h>  #include <machine/trap.h>
   #include <machine/bootinfo.h>
   
   #if NLAPIC > 0
 #include <machine/i82489reg.h>  #include <machine/i82489reg.h>
 #include <machine/frameasm.h>  
 #include <machine/i82489reg.h>  
 #ifndef XEN  
 #include <machine/multiboot.h>  
 #endif  #endif
   
   /* LINTSTUB: include <sys/types.h> */
   /* LINTSTUB: include <machine/cpu.h> */
   /* LINTSTUB: include <sys/systm.h> */
   
   #include <machine/asm.h>
   
   #if defined(MULTIPROCESSOR)
   
   #define SET_CURLWP(lwp,cpu)                             \
           movl    CPUVAR(SELF),cpu                ;       \
           movl    lwp,CPUVAR(CURLWP)      ;       \
           movl    cpu,L_CPU(lwp)
   
   #else
   
   #define SET_CURLWP(lwp,tcpu)            movl    lwp,CPUVAR(CURLWP)
   #define GET_CURLWP(reg)                 movl    CPUVAR(CURLWP),reg
   
   #endif
   
   #define SET_CURPCB(reg)                 movl    reg,CPUVAR(CURPCB)
   
   #define CLEAR_RESCHED(reg)              movl    reg,CPUVAR(RESCHED)
   
 /* XXX temporary kluge; these should not be here */  /* XXX temporary kluge; these should not be here */
 /* Get definitions for IOM_BEGIN, IOM_END, and IOM_SIZE */  /* Get definitions for IOM_BEGIN, IOM_END, and IOM_SIZE */
 #include <dev/isa/isareg.h>  #include <dev/isa/isareg.h>
   
 #ifdef XEN  
 /*  /* Disallow old names for REALBASEMEM */
  * Xen guest identifier and loader selection  #ifdef BIOSBASEMEM
  */  #error BIOSBASEMEM option deprecated; use REALBASEMEM only if memory size reported by latest boot block is incorrect
 .section __xen_guest  
 #ifdef XEN3  
         .ascii  "GUEST_OS=netbsd,GUEST_VER=3.0,XEN_VER=xen-3.0"  
 #if defined(DOM0OPS) || !defined(XEN_COMPAT_030001)  
         .ascii  ",VIRT_BASE=0xc0000000" /* KERNBASE */  
         .ascii  ",ELF_PADDR_OFFSET=0xc0000000" /* KERNBASE */  
 #else  
         .ascii  ",VIRT_BASE=0xc0100000" /* KERNTEXTOFF */  
         .ascii  ",ELF_PADDR_OFFSET=0xc0100000" /* KERNTEXTOFF */  
 #endif  #endif
         .ascii  ",VIRT_ENTRY=0xc0100000" /* KERNTEXTOFF */  
 #if !defined(XEN_COMPAT_030001)  /* Disallow old names for REALEXTMEM */
         .ascii  ",HYPERCALL_PAGE=0x00000101"  #ifdef EXTMEM_SIZE
                 /* (???+HYPERCALL_PAGE_OFFSET)/PAGE_SIZE) */  #error EXTMEM_SIZE option deprecated; use REALEXTMEM only if memory size reported by latest boot block is incorrect
 #endif  #endif
 #ifdef PAE  #ifdef BIOSEXTMEM
         .ascii  ",PAE=yes[extended-cr3]"  #error BIOSEXTMEM option deprecated; use REALEXTMEM only if memory size reported by latest boot block is incorrect
 #endif  
 #else /* !XEN3 */  
         .ascii  "GUEST_OS=netbsd,GUEST_VER=2.0,XEN_VER=2.0"  
 #endif /* XEN3 */  
         .ascii  ",LOADER=generic"  
 #if (NKSYMS || defined(DDB) || defined(LKM)) && !defined(SYMTAB_SPACE)  
         .ascii  ",BSD_SYMTAB=yes"  
 #endif  #endif
         .byte   0  
   #include <machine/frameasm.h>
   
   
   #ifdef MULTIPROCESSOR
   #include <machine/i82489reg.h>
 #endif  #endif
   
 /*  /*
Line 211  __KERNEL_RCSID(0, "$NetBSD$");
Line 156  __KERNEL_RCSID(0, "$NetBSD$");
         .data          .data
   
         .globl  _C_LABEL(cpu)          .globl  _C_LABEL(cpu)
         .globl  _C_LABEL(esym)          .globl  _C_LABEL(esym),_C_LABEL(boothowto)
         .globl  _C_LABEL(atdevbase)          .globl  _C_LABEL(bootinfo),_C_LABEL(atdevbase)
         .globl  _C_LABEL(proc0uarea),_C_LABEL(PDPpaddr)  #ifdef COMPAT_OLDBOOT
           .globl  _C_LABEL(bootdev)
   #endif
           .globl  _C_LABEL(proc0paddr),_C_LABEL(PDPpaddr)
           .globl  _C_LABEL(biosbasemem),_C_LABEL(biosextmem)
         .globl  _C_LABEL(gdt)          .globl  _C_LABEL(gdt)
   #ifdef I586_CPU
         .globl  _C_LABEL(idt)          .globl  _C_LABEL(idt)
   #endif
         .globl  _C_LABEL(lapic_tpr)          .globl  _C_LABEL(lapic_tpr)
   
 #if NLAPIC > 0  #if NLAPIC > 0
Line 241  _C_LABEL(lapic_tpr):
Line 192  _C_LABEL(lapic_tpr):
         .long 0          .long 0
 #endif  #endif
   
 _C_LABEL(cpu):          .long   0       # are we 80486, Pentium, or..  
   _C_LABEL(cpu):          .long   0       # are we 386, 386sx, or 486,
                                           #   or Pentium, or..
   _C_LABEL(esym):         .long   0       # ptr to end of syms
 _C_LABEL(atdevbase):    .long   0       # location of start of iomem in virtual  _C_LABEL(atdevbase):    .long   0       # location of start of iomem in virtual
 _C_LABEL(proc0uarea):   .long   0  _C_LABEL(proc0paddr):   .long   0
 _C_LABEL(PDPpaddr):     .long   0       # paddr of PDP, for libkvm  _C_LABEL(PDPpaddr):     .long   0       # paddr of PDP, for libkvm
 _C_LABEL(tablesize):    .long   0  #ifndef REALBASEMEM
   _C_LABEL(biosbasemem):  .long   0       # base memory reported by BIOS
   #else
   _C_LABEL(biosbasemem):  .long   REALBASEMEM
   #endif
   #ifndef REALEXTMEM
   _C_LABEL(biosextmem):   .long   0       # extended memory reported by BIOS
   #else
   _C_LABEL(biosextmem):   .long   REALEXTMEM
   #endif
   
         .space 512          .space 512
 tmpstk:  tmpstk:
   
 #ifndef XEN  
 #define _RELOC(x)       ((x) - KERNBASE)  #define _RELOC(x)       ((x) - KERNBASE)
 #else  
 #define _RELOC(x)       ((x))  
 #endif /* XEN */  
 #define RELOC(x)        _RELOC(_C_LABEL(x))  #define RELOC(x)        _RELOC(_C_LABEL(x))
   
         .text          .text
Line 262  tmpstk:
Line 222  tmpstk:
         .set    _C_LABEL(kernel_text),KERNTEXTOFF          .set    _C_LABEL(kernel_text),KERNTEXTOFF
   
         .globl  start          .globl  start
 #ifndef XEN  
 start:  movw    $0x1234,0x472                   # warm boot  start:  movw    $0x1234,0x472                   # warm boot
   
 #if defined(MULTIBOOT)  
         jmp     1f  
   
         .align  4  
         .globl  Multiboot_Header  
 _C_LABEL(Multiboot_Header):  
 #define MULTIBOOT_HEADER_FLAGS  (MULTIBOOT_HEADER_WANT_MEMORY)  
         .long   MULTIBOOT_HEADER_MAGIC  
         .long   MULTIBOOT_HEADER_FLAGS  
         .long   -(MULTIBOOT_HEADER_MAGIC + MULTIBOOT_HEADER_FLAGS)  
   
 1:  
         /* Check if we are being executed by a Multiboot-compliant boot  
          * loader. */  
         cmpl    $MULTIBOOT_INFO_MAGIC,%eax  
         jne     1f  
   
         /*          /*
          * Indeed, a multiboot-compliant boot loader executed us.  We copy           * Load parameters from stack
          * the received Multiboot information structure into kernel's data           * (howto, [bootdev], bootinfo, esym, basemem, extmem).
          * space to process it later -- after we are relocated.  It will  
          * be safer to run complex C code than doing it at this point.  
          */           */
         pushl   %ebx            # Address of Multiboot information          movl    4(%esp),%eax
         call    _C_LABEL(multiboot_pre_reloc)          movl    %eax,RELOC(boothowto)
         addl    $4,%esp  #ifdef COMPAT_OLDBOOT
         jmp     2f          movl    8(%esp),%eax
           movl    %eax,RELOC(bootdev)
 #endif  #endif
           movl    12(%esp),%eax
   
           testl   %eax, %eax
           jz      1f
           movl    (%eax), %ebx            /* number of entries */
           movl    $RELOC(bootinfo), %edi
           movl    %ebx, (%edi)
           addl    $4, %edi
   2:
           testl   %ebx, %ebx
           jz      1f
           addl    $4, %eax
           movl    (%eax), %ecx            /* address of entry */
           pushl   %eax
           pushl   (%ecx)                  /* len */
           pushl   %ecx
           pushl   %edi
           addl    (%ecx), %edi            /* update dest pointer */
           cmpl    $_RELOC(_C_LABEL(bootinfo) + BOOTINFO_MAXSIZE), %edi
           jg      2f
           call    _C_LABEL(memcpy)
           addl    $12, %esp
           popl    %eax
           subl    $1, %ebx
           jmp     2b
   2:      /* cleanup for overflow case */
           addl    $16, %esp
           movl    $RELOC(bootinfo), %edi
           subl    %ebx, (%edi)            /* correct number of entries */
   1:
   
           movl    16(%esp),%eax
           testl   %eax,%eax
           jz      1f
           addl    $KERNBASE,%eax
   1:      movl    %eax,RELOC(esym)
   
           movl    RELOC(biosextmem),%eax
           testl   %eax,%eax
           jnz     1f
           movl    20(%esp),%eax
           movl    %eax,RELOC(biosextmem)
   1:
           movl    RELOC(biosbasemem),%eax
           testl   %eax,%eax
           jnz     1f
           movl    24(%esp),%eax
           movl    %eax,RELOC(biosbasemem)
 1:  1:
         /*  
          * At this point, we know that a NetBSD-specific boot loader  
          * booted this kernel.  The stack carries the following parameters:  
          * (boothowto, [bootdev], bootinfo, esym, biosextmem, biosbasemem),  
          * 4 bytes each.  
          */  
         addl    $4,%esp         # Discard return address to boot loader  
         call    _C_LABEL(native_loader)  
         addl    $24,%esp  
   
 2:  
         /* First, reset the PSL. */          /* First, reset the PSL. */
         pushl   $PSL_MBO          pushl   $PSL_MBO
         popfl          popfl
Line 495  try586: /* Use the `cpuid' instruction. 
Line 473  try586: /* Use the `cpuid' instruction. 
 /*  /*
  * Virtual address space of kernel:   * Virtual address space of kernel:
  *   *
  * text | data | bss | [syms] | page dir | proc0 kstack | L1 ptp   * text | data | bss | [syms] | page dir | proc0 kstack
  *                            0          1       2      3   *                            0          1       2      3
  */   */
   #define PROC0PDIR       ((0)              * PAGE_SIZE)
 #define PROC0_PDIR_OFF  0  #define PROC0STACK      ((1)              * PAGE_SIZE)
 #define PROC0_STK_OFF   (PROC0_PDIR_OFF + PAGE_SIZE)  #define SYSMAP          ((1+UPAGES)       * PAGE_SIZE)
 #define PROC0_PTP1_OFF  (PROC0_STK_OFF + UPAGES * PAGE_SIZE)  #define TABLESIZE       ((1+UPAGES) * PAGE_SIZE) /* + nkpde * PAGE_SIZE */
   
 /*  
  * fillkpt  
  *      eax = pte (page frame | control | status)  
  *      ebx = page table address  
  *      ecx = number of pages to map  
  */  
   
 #define fillkpt \  
 1:      movl    %eax,(%ebx)     ;       /* store phys addr */ \  
         addl    $4,%ebx         ;       /* next pte/pde */ \  
         addl    $PAGE_SIZE,%eax ;       /* next phys page */ \  
         loop    1b              ;  \  
   
   
         /* Find end of kernel image. */          /* Find end of kernel image. */
         movl    $RELOC(end),%edi          movl    $RELOC(end),%edi
Line 529  try586: /* Use the `cpuid' instruction. 
Line 493  try586: /* Use the `cpuid' instruction. 
 1:  1:
 #endif  #endif
   
         /* Compute sizes */          /* Calculate where to start the bootstrap tables. */
         movl    %edi,%esi                       # edi = esym ? esym : end          movl    %edi,%esi                       # edi = esym ? esym : end
         addl    $PGOFSET,%esi                   # page align up          addl    $PGOFSET,%esi                   # page align up
         andl    $~PGOFSET,%esi          andl    $~PGOFSET,%esi
   
         /* nkptp[1] = (esi + ~L2_FRAME) >> L2_SHIFT + 1; */          /*
         movl    %esi,%eax           * Calculate the size of the kernel page table directory, and
         addl    $~L2_FRAME,%eax           * how many entries it will have.  Adjust nkpde to the actual
         shrl    $L2_SHIFT,%eax           * kernel size automatically.  Account for the bootstrap tables,
         incl    %eax            /* one more ptp for VAs stolen by bootstrap */           * round up, and add an extra 4MB.
 1:      movl    %eax,RELOC(nkptp)+1*4           */
           leal    TABLESIZE+NBPD+PDOFSET(%edi),%eax
         /* tablesize = (1 + UPAGES + nkptp) << PGSHIFT; */          shrl    $PDSHIFT,%eax
         addl    $(1+UPAGES),%eax          movl    RELOC(nkpde),%ecx               # get nkpde
         shll    $PGSHIFT,%eax          cmpl    %ecx,%eax
         movl    %eax,RELOC(tablesize)          jb      1f
           movl    %eax,%ecx
         /* ensure that nkptp covers bootstrap tables */  1:      cmpl    $NKPTP_MIN,%ecx                 # larger than min?
         addl    %esi,%eax          jge     1f
         addl    $~L2_FRAME,%eax          movl    $NKPTP_MIN,%ecx                 # set at min
         shrl    $L2_SHIFT,%eax          jmp     2f
         incl    %eax  1:      cmpl    $NKPTP_MAX,%ecx                 # larger than max?
         cmpl    %eax,RELOC(nkptp)+1*4          jle     2f
         jnz     1b          movl    $NKPTP_MAX,%ecx
   2:      movl    %ecx,RELOC(nkpde)
         /* Clear tables */  
         movl    %esi,%edi          /* Clear memory for bootstrap tables. */
           shll    $PGSHIFT,%ecx
           addl    $TABLESIZE,%ecx
           addl    %esi,%ecx                       # end of tables
           subl    %edi,%ecx                       # size of tables
           shrl    $2,%ecx
         xorl    %eax,%eax          xorl    %eax,%eax
         cld          cld
         movl    RELOC(tablesize),%ecx  
         shrl    $2,%ecx  
         rep          rep
         stosl          stosl
   
         leal    (PROC0_PTP1_OFF)(%esi), %ebx  /*
    * fillkpt
    *      eax = pte (page frame | control | status)
    *      ebx = page table address
    *      ecx = number of pages to map
    */
   #define fillkpt         \
   1:      movl    %eax,(%ebx)     ; \
           addl    $PAGE_SIZE,%eax ; /* increment physical address */ \
           addl    $4,%ebx         ; /* next pte */ \
           loop    1b              ;
   
 /*  /*
  * Build initial page tables.   * Build initial page tables.
  */   */
         /*          /* Calculate end of text segment, rounded to a page. */
          * Compute &__data_start - KERNBASE. This can't be > 4G,          leal    (RELOC(etext)+PGOFSET),%edx
          * or we can't deal with it anyway, since we can't load it in  
          * 32 bit mode. So use the bottom 32 bits.  
          */  
         movl    $RELOC(__data_start),%edx  
         andl    $~PGOFSET,%edx          andl    $~PGOFSET,%edx
   
         /*          /* Skip over the first 1MB. */
          * Skip the first MB.  
          */  
         movl    $_RELOC(KERNTEXTOFF),%eax          movl    $_RELOC(KERNTEXTOFF),%eax
         movl    %eax,%ecx          movl    %eax,%ecx
         shrl    $(PGSHIFT-2),%ecx       /* ((n >> PGSHIFT) << 2) for # pdes */          shrl    $PGSHIFT,%ecx
         addl    %ecx,%ebx          leal    (SYSMAP)(%esi,%ecx,4),%ebx
   
         /* Map the kernel text read-only. */          /* Map the kernel text read-only. */
         movl    %edx,%ecx          movl    %edx,%ecx
Line 593  try586: /* Use the `cpuid' instruction. 
Line 564  try586: /* Use the `cpuid' instruction. 
   
         /* Map the data, BSS, and bootstrap tables read-write. */          /* Map the data, BSS, and bootstrap tables read-write. */
         leal    (PG_V|PG_KW)(%edx),%eax          leal    (PG_V|PG_KW)(%edx),%eax
         movl    RELOC(tablesize),%ecx          movl    RELOC(nkpde),%ecx
           shll    $PGSHIFT,%ecx
           addl    $TABLESIZE,%ecx
         addl    %esi,%ecx                               # end of tables          addl    %esi,%ecx                               # end of tables
         subl    %edx,%ecx                               # subtract end of text          subl    %edx,%ecx                               # subtract end of text
         shrl    $PGSHIFT,%ecx          shrl    $PGSHIFT,%ecx
         fillkpt          fillkpt
   
         /* Map ISA I/O mem (later atdevbase) */          /* Map ISA I/O memory. */
         movl    $(IOM_BEGIN|PG_V|PG_KW/*|PG_N*/),%eax   # having these bits set          movl    $(IOM_BEGIN|PG_V|PG_KW/*|PG_N*/),%eax   # having these bits set
         movl    $(IOM_SIZE>>PGSHIFT),%ecx               # for this many pte s,          movl    $(IOM_SIZE>>PGSHIFT),%ecx               # for this many pte s,
         fillkpt          fillkpt
Line 607  try586: /* Use the `cpuid' instruction. 
Line 580  try586: /* Use the `cpuid' instruction. 
 /*  /*
  * Construct a page table directory.   * Construct a page table directory.
  */   */
         /* Set up top level entries for identity mapping */          /* Install PDEs for temporary double map of kernel. */
         leal    (PROC0_PDIR_OFF)(%esi),%ebx          movl    RELOC(nkpde),%ecx                       # for this many pde s,
         leal    (PROC0_PTP1_OFF)(%esi),%eax          leal    (PROC0PDIR+0*4)(%esi),%ebx              # which is where temp maps!
         orl     $(PG_V|PG_KW), %eax          leal    (SYSMAP+PG_V|PG_KW)(%esi),%eax          # pte for KPT in proc 0,
         movl    RELOC(nkptp)+1*4,%ecx  
         fillkpt          fillkpt
   
         /* Set up top level entries for actual kernel mapping */          /* Map kernel PDEs. */
         leal    (PROC0_PDIR_OFF + L2_SLOT_KERNBASE*4)(%esi),%ebx          movl    RELOC(nkpde),%ecx                       # for this many pde s,
         leal    (PROC0_PTP1_OFF)(%esi),%eax          leal    (PROC0PDIR+PDSLOT_KERN*4)(%esi),%ebx    # kernel pde offset
         orl     $(PG_V|PG_KW), %eax          leal    (SYSMAP+PG_V|PG_KW)(%esi),%eax          # pte for KPT in proc 0,
         movl    RELOC(nkptp)+1*4,%ecx  
         fillkpt          fillkpt
   
         /* Install a PDE recursively mapping page directory as a page table! */          /* Install a PDE recursively mapping page directory as a page table! */
         leal    (PROC0_PDIR_OFF + PDIR_SLOT_PTE*4)(%esi),%ebx          leal    (PROC0PDIR+PG_V|PG_KW)(%esi),%eax       # pte for ptd
         leal    (PROC0_PDIR_OFF)(%esi),%eax          movl    %eax,(PROC0PDIR+PDSLOT_PTE*4)(%esi)     # recursive PD slot
         orl     $(PG_V|PG_KW),%eax  
         movl    %eax,(%ebx)  
   
   
         /* Save phys. addr of PDP, for libkvm. */          /* Save phys. addr of PDP, for libkvm. */
         movl    %esi,RELOC(PDPpaddr)          movl    %esi,RELOC(PDPpaddr)
   
         /*          /* Load base of page directory and enable mapping. */
          * Startup checklist:  
          * 1. Load %cr3 with pointer to PDIR.  
          */  
         movl    %esi,%eax               # phys address of ptd in proc 0          movl    %esi,%eax               # phys address of ptd in proc 0
         movl    %eax,%cr3               # load ptd addr into mmu          movl    %eax,%cr3               # load ptd addr into mmu
   
         /*  
          * 2. Enable paging and the rest of it.  
          */  
         movl    %cr0,%eax               # get control word          movl    %cr0,%eax               # get control word
                                         # enable paging & NPX emulation                                          # enable paging & NPX emulation
         orl     $(CR0_PE|CR0_PG|CR0_NE|CR0_TS|CR0_EM|CR0_MP),%eax          orl     $(CR0_PE|CR0_PG|CR0_NE|CR0_TS|CR0_EM|CR0_MP),%eax
Line 650  try586: /* Use the `cpuid' instruction. 
Line 611  try586: /* Use the `cpuid' instruction. 
         ret          ret
   
 begin:  begin:
         /*          /* Now running relocated at KERNBASE.  Remove double mapping. */
          * We have arrived.          movl    _C_LABEL(nkpde),%ecx            # for this many pde s,
          * There's no need anymore for the identity mapping in low          leal    (PROC0PDIR+0*4)(%esi),%ebx      # which is where temp maps!
          * memory, remove it.          addl    $(KERNBASE), %ebx       # now use relocated address
          */  
         movl    _C_LABEL(nkptp)+1*4,%ecx  
         leal    (PROC0_PDIR_OFF)(%esi),%ebx     # old, phys  address of PDIR  
         addl    $(KERNBASE), %ebx       # new, virtual address of PDIR  
 1:      movl    $0,(%ebx)  1:      movl    $0,(%ebx)
         addl    $4,%ebx          addl    $4,%ebx # next pde
         loop    1b          loop    1b
   
         /* Relocate atdevbase. */          /* Relocate atdevbase. */
         movl    $KERNBASE,%edx          movl    _C_LABEL(nkpde),%edx
         addl    _C_LABEL(tablesize),%edx          shll    $PGSHIFT,%edx
           addl    $(TABLESIZE+KERNBASE),%edx
         addl    %esi,%edx          addl    %esi,%edx
         movl    %edx,_C_LABEL(atdevbase)          movl    %edx,_C_LABEL(atdevbase)
   
         /* Set up bootstrap stack. */          /* Set up bootstrap stack. */
         leal    (PROC0_STK_OFF+KERNBASE)(%esi),%eax          leal    (PROC0STACK+KERNBASE)(%esi),%eax
         movl    %eax,_C_LABEL(proc0uarea)          movl    %eax,_C_LABEL(proc0paddr)
         leal    (KSTACK_SIZE-FRAMESIZE)(%eax),%esp          leal    (USPACE-FRAMESIZE)(%eax),%esp
         movl    %esi,(KSTACK_SIZE+PCB_CR3)(%eax)        # pcb->pcb_cr3          movl    %esi,PCB_CR3(%eax)      # pcb->pcb_cr3
         xorl    %ebp,%ebp               # mark end of frames          xorl    %ebp,%ebp               # mark end of frames
   
 #if defined(MULTIBOOT)  
         /* It is now safe to parse the Multiboot information structure  
          * we saved before from C code.  Note that we cannot delay its  
          * parsing any more because initgdt (called below) needs to make  
          * use of this information. */  
         call    _C_LABEL(multiboot_post_reloc)  
 #endif  
   
         subl    $NGDT*8, %esp           # space for temporary gdt          subl    $NGDT*8, %esp           # space for temporary gdt
         pushl   %esp          pushl   %esp
         call    _C_LABEL(initgdt)          call    _C_LABEL(initgdt)
         addl    $4,%esp          addl    $4,%esp
   
         movl    _C_LABEL(tablesize),%eax          movl    _C_LABEL(nkpde),%eax
           shll    $PGSHIFT,%eax
           addl    $TABLESIZE,%eax
         addl    %esi,%eax               # skip past stack and page tables          addl    %esi,%eax               # skip past stack and page tables
   
         pushl   %eax          pushl   %eax
Line 714  begin:
Line 666  begin:
 #endif /* SAFARI_FIFO_HACK */  #endif /* SAFARI_FIFO_HACK */
   
         call    _C_LABEL(main)          call    _C_LABEL(main)
 #else /* XEN */  
 start:  
         /* First, reset the PSL. */  
         pushl   $PSL_MBO  
         popfl  
   
         cld  
 #ifdef XEN3  
         movl    %esp, %ebx              # save start of available space  
 #else  
         movl    %esi,%ebx               # save start_info pointer  
 #endif  
         movl    $_RELOC(tmpstk),%esp    # bootstrap stack end location  
   
         /* Clear BSS first so that there are no surprises... */  
         xorl    %eax,%eax  
         movl    $RELOC(__bss_start),%edi  
         movl    $RELOC(_end),%ecx  
         subl    %edi,%ecx  
         rep stosb  
   
         /* Copy the necessary stuff from start_info structure. */  
         /* We need to copy shared_info early, so that sti/cli work */  
         movl    $RELOC(start_info_union),%edi  
         movl    $128,%ecx  
         rep movsl  
   
         /* Clear segment registers; always null in proc0. */  
         xorl    %eax,%eax  
         movw    %ax,%fs  
         movw    %ax,%gs  
         decl    %eax  
         movl    %eax,RELOC(cpu_info_primary)+CPU_INFO_LEVEL  
   
         xorl    %eax,%eax  
         cpuid  
         movl    %eax,RELOC(cpu_info_primary)+CPU_INFO_LEVEL  
   
         call    xen_pmap_bootstrap  
         /*  
          * First avail returned by xen_pmap_bootstrap in %eax  
          */  
         movl    %eax, %esi;  
         movl    %esi, _C_LABEL(proc0uarea)  
   
 #define PROC0PDIR       ((0)              * PAGE_SIZE)  
 #define PROC0STACK      ((1)              * PAGE_SIZE)  
   
         /* Set up bootstrap stack. */  
         leal    (KSTACK_SIZE-FRAMESIZE)(%eax),%esp  
         xorl    %ebp,%ebp               # mark end of frames  
   
         addl    $USPACE, %esi  
         subl    $KERNBASE, %esi         #init386 want a physical address  
         pushl   %esi  
         call    _C_LABEL(init386)       # wire 386 chip for unix operation  
         addl    $4,%esp  
         call    _C_LABEL(main)  
   
 #if defined(XEN3) && !defined(XEN_COMPAT_030001)  
 /* space for the hypercall call page */  
 #define HYPERCALL_PAGE_OFFSET 0x1000  
 .org HYPERCALL_PAGE_OFFSET  
 ENTRY(hypercall_page)  
 .skip 0x1000  
 #endif /* defined(XEN3) && !defined(XEN_COMPAT_030001) */  
   
 /*  
  * void lgdt_finish(void);  
  * Finish load a new GDT pointer (do any necessary cleanup).  
  * XXX It's somewhat questionable whether reloading all the segment registers  
  * is necessary, since the actual descriptor data is not changed except by  
  * process creation and exit, both of which clean up via task switches.  OTOH,  
  * this only happens at run time when the GDT is resized.  
  */  
 /* LINTSTUB: Func: void lgdt_finish(void) */  
 NENTRY(lgdt_finish)  
         movl    $GSEL(GDATA_SEL, SEL_KPL),%eax  
         movw    %ax,%ds  
         movw    %ax,%es  
         movw    %ax,%gs  
         movw    %ax,%ss  
         movl    $GSEL(GCPU_SEL, SEL_KPL),%eax  
         movw    %ax,%fs  
         /* Reload code selector by doing intersegment return. */  
         popl    %eax  
         pushl   $GSEL(GCODE_SEL, SEL_KPL)  
         pushl   %eax  
         lret  
   
 #endif /* XEN */  
   
 /*  /*
  * void lwp_trampoline(void);   * void proc_trampoline(void);
  *  
  * This is a trampoline function pushed onto the stack of a newly created   * This is a trampoline function pushed onto the stack of a newly created
  * process in order to do some additional setup.  The trampoline is entered by   * process in order to do some additional setup.  The trampoline is entered by
  * cpu_switch()ing to the process, so we abuse the callee-saved registers used   * cpu_switch()ing to the process, so we abuse the callee-saved registers used
  * by cpu_switch() to store the information about the stub to call.   * by cpu_switch() to store the information about the stub to call.
  * NOTE: This function does not have a normal calling sequence!   * NOTE: This function does not have a normal calling sequence!
  */   */
 NENTRY(lwp_trampoline)  /* LINTSTUB: Func: void proc_trampoline(void) */
         pushl   %ebp  NENTRY(proc_trampoline)
         xorl    %ebp,%ebp  #ifdef MULTIPROCESSOR
         pushl   %eax          call    _C_LABEL(proc_trampoline_mp)
         call    _C_LABEL(lwp_startup)  #endif
         addl    $8,%esp          movl    $IPL_NONE,CPUVAR(ILEVEL)
         pushl   %ebx          pushl   %ebx
         call    *%esi          call    *%esi
         addl    $4,%esp          addl    $4,%esp
         DO_DEFERRED_SWITCH          DO_DEFERRED_SWITCH(%eax)
         INTRFASTEXIT          INTRFASTEXIT
         /* NOTREACHED */          /* NOTREACHED */
   
   /*****************************************************************************/
   #ifdef COMPAT_16
 /*  /*
  * sigcode()   * Signal trampoline; copied to top of user stack.
  *  
  * Signal trampoline; copied to top of user stack.  Used only for  
  * compatibility with old releases of NetBSD.  
  */   */
   /* LINTSTUB: Var: char sigcode[1], esigcode[1]; */
 NENTRY(sigcode)  NENTRY(sigcode)
         /*          /*
          * Handler has returned here as if we called it.  The sigcontext           * Handler has returned here as if we called it.  The sigcontext
Line 848  NENTRY(sigcode)
Line 708  NENTRY(sigcode)
         int     $0x80                   # exit if sigreturn fails          int     $0x80                   # exit if sigreturn fails
         .globl  _C_LABEL(esigcode)          .globl  _C_LABEL(esigcode)
 _C_LABEL(esigcode):  _C_LABEL(esigcode):
   #endif
   
   /*****************************************************************************/
   
 /*  /*
  * int setjmp(label_t *)   * The following is i386-specific nonsense.
  *  
  * Used primarily by DDB.  
  */   */
   
   /*
    * void lgdt(struct region_descriptor *rdp);
    * Load a new GDT pointer (and do any necessary cleanup).
    * XXX It's somewhat questionable whether reloading all the segment registers
    * is necessary, since the actual descriptor data is not changed except by
    * process creation and exit, both of which clean up via task switches.  OTOH,
    * this only happens at run time when the GDT is resized.
    */
   /* LINTSTUB: Func: void lgdt(struct region_descriptor *rdp) */
   NENTRY(lgdt)
           /* Reload the descriptor table. */
           movl    4(%esp),%eax
           lgdt    (%eax)
           /* Flush the prefetch queue. */
           jmp     1f
           nop
   1:      /* Reload "stale" selectors. */
           movl    $GSEL(GDATA_SEL, SEL_KPL),%eax
           movw    %ax,%ds
           movw    %ax,%es
           movw    %ax,%gs
           movw    %ax,%ss
           movl    $GSEL(GCPU_SEL, SEL_KPL),%eax
           movw    %ax,%fs
           /* Reload code selector by doing intersegment return. */
           popl    %eax
           pushl   $GSEL(GCODE_SEL, SEL_KPL)
           pushl   %eax
           lret
   
   /*****************************************************************************/
   
   /*
    * These functions are primarily used by DDB.
    */
   
   /* LINTSTUB: Func: int setjmp (label_t *l) */
 ENTRY(setjmp)  ENTRY(setjmp)
         movl    4(%esp),%eax          movl    4(%esp),%eax
         movl    %ebx,(%eax)             # save ebx          movl    %ebx,(%eax)             # save ebx
Line 863  ENTRY(setjmp)
Line 762  ENTRY(setjmp)
         movl    %edi,16(%eax)           # save edi          movl    %edi,16(%eax)           # save edi
         movl    (%esp),%edx             # get rta          movl    (%esp),%edx             # get rta
         movl    %edx,20(%eax)           # save eip          movl    %edx,20(%eax)           # save eip
         xorl    %eax,%eax               # return 0          xorl    %eax,%eax               # return (0);
         ret          ret
   
 /*  /* LINTSTUB: Func: void longjmp (label_t *l) */
  * int longjmp(label_t *)  
  *  
  * Used primarily by DDB.  
  */  
 ENTRY(longjmp)  ENTRY(longjmp)
         movl    4(%esp),%eax          movl    4(%esp),%eax
         movl    (%eax),%ebx             # restore ebx          movl    (%eax),%ebx             # restore ebx
Line 880  ENTRY(longjmp)
Line 775  ENTRY(longjmp)
         movl    16(%eax),%edi           # restore edi          movl    16(%eax),%edi           # restore edi
         movl    20(%eax),%edx           # get rta          movl    20(%eax),%edx           # get rta
         movl    %edx,(%esp)             # put in return frame          movl    %edx,(%esp)             # put in return frame
         movl    $1,%eax                 # return 1          xorl    %eax,%eax               # return (1);
           incl    %eax
         ret          ret
   
 /*  /*****************************************************************************/
  * void dumpsys(void)  
  *          .globl  _C_LABEL(sched_whichqs),_C_LABEL(sched_qs)
  * Mimic cpu_switchto() for postmortem debugging.          .globl  _C_LABEL(uvmexp),_C_LABEL(panic)
  */  
 ENTRY(dumpsys)  #ifdef DIAGNOSTIC
         pushl   %ebx                    # set up fake switchframe  NENTRY(switch_error)
         pushl   %esi                    #   and save context          pushl   $1f
         pushl   %edi          call    _C_LABEL(panic)
         movl    %esp,_C_LABEL(dumppcb)+PCB_ESP          /* NOTREACHED */
         movl    %ebp,_C_LABEL(dumppcb)+PCB_EBP  1:      .asciz  "cpu_switch"
         call    _C_LABEL(dodumpsys)     # dump!  #endif /* DIAGNOSTIC */
         addl    $(3*4), %esp            # unwind switchframe  
         ret  
   
 /*  /*
  * struct lwp *cpu_switchto(struct lwp *oldlwp, struct newlwp,   * void cpu_switch(struct lwp *)
  *                          bool returning)   * Find a runnable process and switch to it.  Wait if necessary.  If the new
    * process is the same as the old one, we short-circuit the context save and
    * restore.
  *   *
  *      1. if (oldlwp != NULL), save its context.   * Note that the stack frame layout is known to "struct switchframe"
  *      2. then, restore context of newlwp.   * in <machine/frame.h> and to the code in cpu_fork() which initializes
  *  
  * Note that the stack frame layout is known to "struct switchframe" in  
  * <machine/frame.h> and to the code in cpu_lwp_fork() which initializes  
  * it for a new lwp.   * it for a new lwp.
  */   */
 ENTRY(cpu_switchto)  ENTRY(cpu_switch)
         pushl   %ebx          pushl   %ebx
         pushl   %esi          pushl   %esi
         pushl   %edi          pushl   %edi
   
         movl    16(%esp),%esi           # oldlwp  #ifdef DEBUG
         movl    20(%esp),%edi           # newlwp          cmpl    $IPL_SCHED,CPUVAR(ILEVEL)
         movl    24(%esp),%edx           # returning          jae     1f
         testl   %esi,%esi          pushl   $2f
         jz      1f          call    _C_LABEL(panic)
           /* NOTREACHED */
   2:      .asciz  "not splsched() in cpu_switch!"
   1:
   #endif /* DEBUG */
   
         /* Save old context. */          movl    16(%esp),%esi           # current
         movl    L_ADDR(%esi),%eax  
         movl    %esp,PCB_ESP(%eax)  
         movl    %ebp,PCB_EBP(%eax)  
   
         /* Switch to newlwp's stack. */  
 1:      movl    L_ADDR(%edi),%ebx  
         movl    PCB_EBP(%ebx),%ebp  
         movl    PCB_ESP(%ebx),%esp  
   
         /*          /*
          * Set curlwp.  This must be globally visible in order to permit           * Clear curlwp so that we don't accumulate system time while idle.
          * non-interlocked mutex release.           * This also insures that schedcpu() will move the old lwp to
            * the correct queue if it happens to get called from the spllower()
            * below and changes the priority.  (See corresponding comment in
            * userret()).
            */
           movl    $0,CPUVAR(CURLWP)
           /*
            * First phase: find new lwp.
            *
            * Registers:
            *   %eax - queue head, scratch, then zero
            *   %ebx - queue number
            *   %ecx - cached value of whichqs
            *   %edx - next lwp in queue
            *   %esi - old lwp
            *   %edi - new lwp
          */           */
         movl    %edi,%ecx  
         xchgl   %ecx,CPUVAR(CURLWP)  
   
         /* Skip the rest if returning to a pinned LWP. */          /* Look for new lwp. */
         testl   %edx,%edx          cli                             # splhigh doesn't do a cli
         jnz     4f          movl    _C_LABEL(sched_whichqs),%ecx
           bsfl    %ecx,%ebx               # find a full q
           jnz     switch_dequeue
   
 #ifdef XEN          /*
         pushl   %edi           * idling:      save old context.
         call    _C_LABEL(i386_switch_context)           *
            * Registers:
            *   %eax, %ecx - scratch
            *   %esi - old lwp, then old pcb
            *   %edi - idle pcb
            */
   
           pushl   %esi
           call    _C_LABEL(pmap_deactivate2)      # pmap_deactivate(oldproc)
         addl    $4,%esp          addl    $4,%esp
 #else /* XEN */  
         /* Switch ring0 esp */  
         movl    PCB_ESP0(%ebx),%eax  
         movl    %eax,CPUVAR(ESP0)  
   
         /* Don't bother with the rest if switching to a system process. */          movl    L_ADDR(%esi),%esi
         testl   $LW_SYSTEM,L_FLAG(%edi)  
         jnz     4f          /* Save stack pointers. */
           movl    %esp,PCB_ESP(%esi)
           movl    %ebp,PCB_EBP(%esi)
   
           /* Find idle PCB for this CPU */
   #ifndef MULTIPROCESSOR
           movl    $_C_LABEL(lwp0),%ebx
           movl    L_ADDR(%ebx),%edi
           movl    L_MD_TSS_SEL(%ebx),%edx
   #else
           movl    CPUVAR(IDLE_PCB),%edi
           movl    CPUVAR(IDLE_TSS_SEL),%edx
   #endif
           movl    $0,CPUVAR(CURLWP)               /* In case we fault... */
   
         /* Restore thread-private %fs/%gs descriptors. */          /* Restore the idle context (avoid interrupts) */
         movl    CPUVAR(GDT),%ecx          cli
         movl    PCB_FSD(%ebx), %eax  
         movl    PCB_FSD+4(%ebx), %edx          /* Restore stack pointers. */
         movl    %eax, (GUFS_SEL*8)(%ecx)          movl    PCB_ESP(%edi),%esp
         movl    %edx, (GUFS_SEL*8+4)(%ecx)          movl    PCB_EBP(%edi),%ebp
         movl    PCB_GSD(%ebx), %eax  
         movl    PCB_GSD+4(%ebx), %edx          /* Switch TSS. Reset "task busy" flag before loading. */
         movl    %eax, (GUGS_SEL*8)(%ecx)          movl    %cr3,%eax
         movl    %edx, (GUGS_SEL*8+4)(%ecx)          movl    %eax,PCB_CR3(%edi)
 #endif /* XEN */  #ifdef MULTIPROCESSOR
           movl    CPUVAR(GDT),%eax
         /* Switch I/O bitmap */  #else
         movl    PCB_IOMAP(%ebx),%eax          movl    _C_LABEL(gdt),%eax
         orl     %eax,%eax  #endif
         jnz,pn  .Lcopy_iobitmap          andl    $~0x0200,4-SEL_KPL(%eax,%edx,1)
         movl    $(IOMAP_INVALOFF << 16),CPUVAR(IOBASE)          ltr     %dx
 .Liobitmap_done:  
           /* We're always in the kernel, so we don't need the LDT. */
         /* Is this process using RAS (restartable atomic sequences)? */  
         movl    L_PROC(%edi),%eax          /* Restore cr0 (including FPU state). */
         cmpl    $0,P_RASLIST(%eax)          movl    PCB_CR0(%edi),%ecx
         jne     5f          movl    %ecx,%cr0
   
           /* Record new pcb. */
           SET_CURPCB(%edi)
   
           xorl    %esi,%esi
           sti
   idle_unlock:
   #if defined(MULTIPROCESSOR) || defined(LOCKDEBUG)
           call    _C_LABEL(sched_unlock_idle)
   #endif
           /* Interrupts are okay again. */
           pushl   $IPL_NONE               # spl0()
           call    _C_LABEL(Xspllower)     # process pending interrupts
           addl    $4,%esp
           jmp     idle_start
   idle_zero:
           sti
           call    _C_LABEL(uvm_pageidlezero)
           cli
           cmpl    $0,_C_LABEL(sched_whichqs)
           jnz     idle_exit
   idle_loop:
           /* Try to zero some pages. */
           movl    _C_LABEL(uvm)+UVM_PAGE_IDLE_ZERO,%ecx
           testl   %ecx,%ecx
           jnz     idle_zero
           sti
           hlt
   NENTRY(mpidle)
   idle_start:
           cli
           cmpl    $0,_C_LABEL(sched_whichqs)
           jz      idle_loop
   idle_exit:
           movl    $IPL_HIGH,CPUVAR(ILEVEL)                # splhigh
           sti
   #if defined(MULTIPROCESSOR) || defined(LOCKDEBUG)
           call    _C_LABEL(sched_lock_idle)
   #endif
           movl    _C_LABEL(sched_whichqs),%ecx
           bsfl    %ecx,%ebx
           jz      idle_unlock
   
   switch_dequeue:
         /*          /*
          * Restore cr0 (including FPU state).  Raise the IPL to IPL_IPI.           * we're running at splhigh(), but it's otherwise okay to take
          * FPU IPIs can alter the LWP's saved cr0.  Dropping the priority           * interrupts here.
          * is deferred until mi_switch(), when cpu_switchto() returns.  
          */           */
 2:          sti
 #ifndef XEN          leal    _C_LABEL(sched_qs)(,%ebx,8),%eax # select q
         movl    $IPL_IPI,CPUVAR(ILEVEL)  
         movl    PCB_CR0(%ebx),%ecx          movl    L_FORW(%eax),%edi       # unlink from front of process q
         movl    %cr0,%edx  #ifdef  DIAGNOSTIC
           cmpl    %edi,%eax               # linked to self (i.e. nothing queued)?
           je      _C_LABEL(switch_error)  # not possible
   #endif /* DIAGNOSTIC */
           movl    L_FORW(%edi),%edx
           movl    %edx,L_FORW(%eax)
           movl    %eax,L_BACK(%edx)
   
           cmpl    %edx,%eax               # q empty?
           jne     3f
   
           btrl    %ebx,%ecx               # yes, clear to indicate empty
           movl    %ecx,_C_LABEL(sched_whichqs) # update q status
   
   3:      /* We just did it. */
           xorl    %eax,%eax
           CLEAR_RESCHED(%eax)
   
   switch_resume:
   #ifdef  DIAGNOSTIC
           cmpl    %eax,L_WCHAN(%edi)      # Waiting for something?
           jne     _C_LABEL(switch_error)  # Yes; shouldn't be queued.
           cmpb    $LSRUN,L_STAT(%edi)     # In run state?
           jne     _C_LABEL(switch_error)  # No; shouldn't be queued.
   #endif /* DIAGNOSTIC */
   
           /* Isolate lwp.  XXX Is this necessary? */
           movl    %eax,L_BACK(%edi)
   
           /* Record new lwp. */
           movb    $LSONPROC,L_STAT(%edi)  # l->l_stat = LSONPROC
           SET_CURLWP(%edi,%ecx)
   
           /* Skip context switch if same lwp. */
           xorl    %ebx,%ebx
           cmpl    %edi,%esi
           je      switch_return
   
           /* If old lwp exited, don't bother. */
           testl   %esi,%esi
           jz      switch_exited
   
         /*          /*
            * Second phase: save old context.
            *
            * Registers:
            *   %eax, %ecx - scratch
            *   %esi - old lwp, then old pcb
            *   %edi - new lwp
            */
   
           pushl   %esi
           call    _C_LABEL(pmap_deactivate2)      # pmap_deactivate(oldproc)
           addl    $4,%esp
   
           movl    L_ADDR(%esi),%esi
   
           /* Save stack pointers. */
           movl    %esp,PCB_ESP(%esi)
           movl    %ebp,PCB_EBP(%esi)
   
   switch_exited:
           /*
            * Third phase: restore saved context.
            *
            * Registers:
            *   %eax, %ebx, %ecx, %edx - scratch
            *   %esi - new pcb
            *   %edi - new lwp
            */
   
           /* No interrupts while loading new state. */
           cli
           movl    L_ADDR(%edi),%esi
   
           /* Restore stack pointers. */
           movl    PCB_ESP(%esi),%esp
           movl    PCB_EBP(%esi),%ebp
   
   #if 0
           /* Don't bother with the rest if switching to a system process. */
           testl   $P_SYSTEM,L_FLAG(%edi); XXX NJWLWP lwp's don't have P_SYSTEM!
           jnz     switch_restored
   #endif
   
           /* Switch TSS. Reset "task busy" flag before loading. */
           movl    %cr3,%eax
           movl    %eax,PCB_CR3(%esi) /* XXX should be done by pmap_activate? */
   #ifdef MULTIPROCESSOR
           movl    CPUVAR(GDT),%eax
   #else
           /* Load TSS info. */
           movl    _C_LABEL(gdt),%eax
   #endif
           movl    L_MD_TSS_SEL(%edi),%edx
   
           andl    $~0x0200,4(%eax,%edx, 1)
           ltr     %dx
   
           pushl   %edi
           call    _C_LABEL(pmap_activate)         # pmap_activate(p)
           addl    $4,%esp
   
   #if 0
   switch_restored:
   #endif
           /* Restore cr0 (including FPU state). */
           movl    PCB_CR0(%esi),%ecx
   #ifdef MULTIPROCESSOR
           /*
          * If our floating point registers are on a different CPU,           * If our floating point registers are on a different CPU,
          * set CR0_TS so we'll trap rather than reuse bogus state.           * clear CR0_TS so we'll trap rather than reuse bogus state.
          */           */
         movl    PCB_FPCPU(%ebx),%eax          movl    PCB_FPCPU(%esi),%ebx
         cmpl    CPUVAR(SELF),%eax          cmpl    CPUVAR(SELF),%ebx
         je      3f          jz      1f
         orl     $CR0_TS,%ecx          orl     $CR0_TS,%ecx
   1:
         /* Reloading CR0 is very expensive - avoid if possible. */  #endif
 3:      cmpl    %edx,%ecx  
         je      4f  
         movl    %ecx,%cr0          movl    %ecx,%cr0
 #endif /* XEN */  
   
         /* Return to the new LWP, returning 'oldlwp' in %eax. */          /* Record new pcb. */
 4:      movl    %esi,%eax          SET_CURPCB(%esi)
   
           /* Interrupts are okay again. */
           sti
   
   /*
    *  Check for restartable atomic sequences (RAS)
    */
           movl    CPUVAR(CURLWP),%edi
           movl    L_PROC(%edi),%esi
           cmpl    $0,P_RASLIST(%esi)
           jne     2f
   1:
           movl    $1,%ebx
   
   switch_return:
   #if defined(MULTIPROCESSOR) || defined(LOCKDEBUG)
           call    _C_LABEL(sched_unlock_idle)
   #endif
           cmpl    $0,CPUVAR(IPENDING)
           jz      3f
           pushl   $IPL_NONE               # spl0()
           call    _C_LABEL(Xspllower)     # process pending interrupts
           addl    $4,%esp
   3:
           movl    $IPL_HIGH,CPUVAR(ILEVEL)        # splhigh()
   
           movl    %ebx,%eax
   
         popl    %edi          popl    %edi
         popl    %esi          popl    %esi
         popl    %ebx          popl    %ebx
         ret          ret
   
         /* Check for restartable atomic sequences (RAS). */  2:                                      # check RAS list
 5:      movl    L_MD_REGS(%edi),%ecx          movl    L_MD_REGS(%edi),%ebx
         pushl   TF_EIP(%ecx)          movl    TF_EIP(%ebx),%eax
         pushl   %eax          pushl   %eax
           pushl   %esi
         call    _C_LABEL(ras_lookup)          call    _C_LABEL(ras_lookup)
         addl    $8,%esp          addl    $8,%esp
         cmpl    $-1,%eax          cmpl    $-1,%eax
         je      2b          je      1b
         movl    L_MD_REGS(%edi),%ecx          movl    %eax,TF_EIP(%ebx)
         movl    %eax,TF_EIP(%ecx)          jmp     1b
         jmp     2b  
   
 .Lcopy_iobitmap:  /*
         /* Copy I/O bitmap. */   * void cpu_switchto(struct lwp *current, struct lwp *next)
         movl    $(IOMAPSIZE/4),%ecx   * Switch to the specified next LWP.
    */
   ENTRY(cpu_switchto)
           pushl   %ebx
         pushl   %esi          pushl   %esi
         pushl   %edi          pushl   %edi
         movl    %eax,%esi               /* pcb_iomap */  
         movl    CPUVAR(SELF),%edi  #ifdef DEBUG
         leal    CPU_INFO_IOMAP(%edi),%edi          cmpl    $IPL_SCHED,CPUVAR(ILEVEL)
         rep          jae     1f
         movsl          pushl   $2f
         popl    %edi          call    _C_LABEL(panic)
         popl    %esi          /* NOTREACHED */
         movl    $((CPU_INFO_IOMAP - CPU_INFO_TSS) << 16),CPUVAR(IOBASE)  2:      .asciz  "not splsched() in cpu_switchto!"
         jmp     .Liobitmap_done  1:
   #endif /* DEBUG */
   
           movl    16(%esp),%esi           # current
           movl    20(%esp),%edi           # next
   
           /*
            * Clear curlwp so that we don't accumulate system time while idle.
            * This also insures that schedcpu() will move the old process to
            * the correct queue if it happens to get called from the spllower()
            * below and changes the priority.  (See corresponding comment in
            * usrret()).
            *
            * XXX Is this necessary?  We know we won't go idle.
            */
           movl    $0,CPUVAR(CURLWP)
   
           /*
            * We're running at splhigh(), but it's otherwise okay to take
            * interrupts here.
            */
           sti
   
           /* Jump into the middle of cpu_switch */
           xorl    %eax,%eax
           jmp     switch_resume
   
   /*
    * void cpu_exit(struct lwp *l)
    * Switch to the appropriate idle context (lwp0's if uniprocessor; the CPU's
    * if multiprocessor) and deallocate the address space and kernel stack for p.
    * Then jump into cpu_switch(), as if we were in the idle proc all along.
    */
   #ifndef MULTIPROCESSOR
           .globl  _C_LABEL(lwp0)
   #endif
   /* LINTSTUB: Func: void cpu_exit(struct lwp *l) */
   ENTRY(cpu_exit)
           movl    4(%esp),%edi            # old process
   #ifndef MULTIPROCESSOR
           movl    $_C_LABEL(lwp0),%ebx
           movl    L_ADDR(%ebx),%esi
           movl    L_MD_TSS_SEL(%ebx),%edx
   #else
           movl    CPUVAR(IDLE_PCB),%esi
           movl    CPUVAR(IDLE_TSS_SEL),%edx
   #endif
           /* In case we fault... */
           movl    $0,CPUVAR(CURLWP)
   
           /* Restore the idle context. */
           cli
   
           /* Restore stack pointers. */
           movl    PCB_ESP(%esi),%esp
           movl    PCB_EBP(%esi),%ebp
   
           /* Switch TSS. Reset "task busy" flag before loading. */
           movl    %cr3,%eax
           movl    %eax,PCB_CR3(%esi)
   #ifdef MULTIPROCESSOR
           movl    CPUVAR(GDT),%eax
   #else
           /* Load TSS info. */
           movl    _C_LABEL(gdt),%eax
   #endif
   
           andl    $~0x0200,4-SEL_KPL(%eax,%edx,1)
           ltr     %dx
   
           /* We're always in the kernel, so we don't need the LDT. */
   
           /* Restore cr0 (including FPU state). */
           movl    PCB_CR0(%esi),%ecx
           movl    %ecx,%cr0
   
           /* Record new pcb. */
           SET_CURPCB(%esi)
   
           /* Interrupts are okay again. */
           sti
   
           /*
            * Schedule the dead LWP's stack to be freed.
            */
           pushl   %edi
           call    _C_LABEL(lwp_exit2)
           addl    $4,%esp
   
           /* Jump into cpu_switch() with the right state. */
           xorl    %esi,%esi
           movl    %esi,CPUVAR(CURLWP)
           jmp     idle_start
   
 /*  /*
  * void savectx(struct pcb *pcb);   * void savectx(struct pcb *pcb);
  *  
  * Update pcb, saving current processor state.   * Update pcb, saving current processor state.
  */   */
   /* LINTSTUB: Func: void savectx(struct pcb *pcb) */
 ENTRY(savectx)  ENTRY(savectx)
         movl    4(%esp),%edx            # edx = pcb          movl    4(%esp),%edx            # edx = p->p_addr
   
           /* Save stack pointers. */
         movl    %esp,PCB_ESP(%edx)          movl    %esp,PCB_ESP(%edx)
         movl    %ebp,PCB_EBP(%edx)          movl    %ebp,PCB_EBP(%edx)
   
         ret          ret
   
 /*  /*
  * osyscall()  
  *  
  * Old call gate entry for syscall   * Old call gate entry for syscall
  */   */
   /* LINTSTUB: Var: char Xosyscall[1]; */
 IDTVEC(osyscall)  IDTVEC(osyscall)
         pushfl                  # set eflags in trap frame          /* Set eflags in trap frame. */
           pushfl
         popl    8(%esp)          popl    8(%esp)
         pushl   $7              # size of instruction for restart          pushl   $7              # size of instruction for restart
         jmp     syscall1          jmp     syscall1
   
 /*  /*
  * syscall()  
  *  
  * Trap gate entry for syscall   * Trap gate entry for syscall
  */   */
   /* LINTSTUB: Var: char Xsyscall[1]; */
 IDTVEC(syscall)  IDTVEC(syscall)
         pushl   $2              # size of instruction for restart          pushl   $2              # size of instruction for restart
 syscall1:  syscall1:
Line 1090  syscall1:
Line 1282  syscall1:
 1:  1:
 #endif /* DIAGNOSTIC */  #endif /* DIAGNOSTIC */
         movl    CPUVAR(CURLWP),%edx          movl    CPUVAR(CURLWP),%edx
         incl    CPUVAR(NSYSCALL)        # count it atomically  
         movl    %esp,L_MD_REGS(%edx)    # save pointer to frame          movl    %esp,L_MD_REGS(%edx)    # save pointer to frame
         movl    L_PROC(%edx),%edx          movl    L_PROC(%edx),%edx
         pushl   %esp          pushl   %esp
Line 1098  syscall1:
Line 1289  syscall1:
         addl    $4,%esp          addl    $4,%esp
 .Lsyscall_checkast:  .Lsyscall_checkast:
         /* Check for ASTs on exit to user mode. */          /* Check for ASTs on exit to user mode. */
         CLI(%eax)          cli
         CHECK_ASTPENDING(%eax)          CHECK_ASTPENDING(%eax)
         je      1f          je      1f
         /* Always returning to user mode here. */          /* Always returning to user mode here. */
         CLEAR_ASTPENDING(%eax)          CLEAR_ASTPENDING(%eax)
         STI(%eax)          sti
         /* Pushed T_ASTFLT into tf_trapno on entry. */          /* Pushed T_ASTFLT into tf_trapno on entry. */
         pushl   %esp          pushl   %esp
         call    _C_LABEL(trap)          call    _C_LABEL(trap)
         addl    $4,%esp          addl    $4,%esp
         jmp     .Lsyscall_checkast      /* re-check ASTs */          jmp     .Lsyscall_checkast      /* re-check ASTs */
 1:      CHECK_DEFERRED_SWITCH  1:      CHECK_DEFERRED_SWITCH(%eax)
         jnz     9f          jnz     9f
 #ifdef XEN  
         STIC(%eax)  
         jz      14f  
         call    _C_LABEL(stipending)  
         testl   %eax,%eax  
         jz      14f  
         /* process pending interrupts */  
         CLI(%eax)  
         movl    CPUVAR(ILEVEL), %ebx  
         movl    $.Lsyscall_resume, %esi # address to resume loop at  
 .Lsyscall_resume:  
         movl    %ebx,%eax       # get cpl  
         movl    CPUVAR(IUNMASK)(,%eax,4),%eax  
         andl    CPUVAR(IPENDING),%eax   # any non-masked bits left?  
         jz      17f  
         bsrl    %eax,%eax  
         btrl    %eax,CPUVAR(IPENDING)  
         movl    CPUVAR(ISOURCES)(,%eax,4),%eax  
         jmp     *IS_RESUME(%eax)  
 17:     movl    %ebx, CPUVAR(ILEVEL)    #restore cpl  
         jmp     .Lsyscall_checkast  
 14:  
 #endif /* XEN */  
 #ifndef DIAGNOSTIC  #ifndef DIAGNOSTIC
         INTRFASTEXIT          INTRFASTEXIT
 #else /* DIAGNOSTIC */  #else /* DIAGNOSTIC */
         cmpl    $IPL_NONE,CPUVAR(ILEVEL)          cmpl    $IPL_NONE,CPUVAR(ILEVEL)
         jne     3f          jne     3f
         INTRFASTEXIT          INTRFASTEXIT
 3:      STI(%eax)  3:      sti
         pushl   $4f          pushl   $4f
         call    _C_LABEL(printf)          call    _C_LABEL(printf)
         addl    $4,%esp          addl    $4,%esp
         pushl   $IPL_NONE  #ifdef DDB
         call    _C_LABEL(spllower)          int     $3
         addl    $4,%esp  #endif /* DDB */
         jmp     .Lsyscall_checkast          movl    $IPL_NONE,CPUVAR(ILEVEL)
           jmp     2b
 4:      .asciz  "WARNING: SPL NOT LOWERED ON SYSCALL EXIT\n"  4:      .asciz  "WARNING: SPL NOT LOWERED ON SYSCALL EXIT\n"
 5:      .asciz  "WARNING: SPL NOT ZERO ON SYSCALL ENTRY\n"  5:      .asciz  "WARNING: SPL NOT ZERO ON SYSCALL ENTRY\n"
 6:      .asciz  "WARNING: WANT PMAPLOAD ON SYSCALL ENTRY\n"  6:      .asciz  "WARNING: WANT PMAPLOAD ON SYSCALL ENTRY\n"
 #endif /* DIAGNOSTIC */  #endif /* DIAGNOSTIC */
 9:      STI(%eax)  9:      sti
         call    _C_LABEL(pmap_load)          call    _C_LABEL(pmap_load)
         jmp     .Lsyscall_checkast      /* re-check ASTs */          jmp     .Lsyscall_checkast      /* re-check ASTs */
   
Line 1163  syscall1:
Line 1332  syscall1:
  * latch stuff in probintr() can be moved to npxprobe().   * latch stuff in probintr() can be moved to npxprobe().
  */   */
   
 /*  /* LINTSTUB: Func: void probeintr(void) */
  * void probeintr(void)  
  */  
 NENTRY(probeintr)  NENTRY(probeintr)
         ss          ss
         incl    _C_LABEL(npx_intrs_while_probing)          incl    _C_LABEL(npx_intrs_while_probing)
Line 1178  NENTRY(probeintr)
Line 1345  NENTRY(probeintr)
         popl    %eax          popl    %eax
         iret          iret
   
 /*  /* LINTSTUB: Func: void probetrap(void) */
  * void probetrap(void)  
  */  
 NENTRY(probetrap)  NENTRY(probetrap)
         ss          ss
         incl    _C_LABEL(npx_traps_while_probing)          incl    _C_LABEL(npx_traps_while_probing)
         fnclex          fnclex
         iret          iret
   
 /*  /* LINTSTUB: Func: int npx586bug1(int a, int b) */
  * int npx586bug1(int a, int b)  
  */  
 NENTRY(npx586bug1)  NENTRY(npx586bug1)
         fildl   4(%esp)         # x          fildl   4(%esp)         # x
         fildl   8(%esp)         # y          fildl   8(%esp)         # y
Line 1202  NENTRY(npx586bug1)
Line 1365  NENTRY(npx586bug1)
         popl    %eax          popl    %eax
         ret          ret
 #endif /* NNPX > 0 */  #endif /* NNPX > 0 */
   
 /*  
  * void sse2_zero_page(void *pg)  
  *  
  * Zero a page without polluting the cache.  
  */  
 ENTRY(sse2_zero_page)  
         pushl   %ebp  
         movl    %esp,%ebp  
         movl    8(%esp), %edx  
         movl    $PAGE_SIZE, %ecx  
         xorl    %eax, %eax  
         .align  16  
 1:  
         movnti  %eax, 0(%edx)  
         movnti  %eax, 4(%edx)  
         movnti  %eax, 8(%edx)  
         movnti  %eax, 12(%edx)  
         movnti  %eax, 16(%edx)  
         movnti  %eax, 20(%edx)  
         movnti  %eax, 24(%edx)  
         movnti  %eax, 28(%edx)  
         subl    $32, %ecx  
         leal    32(%edx), %edx  
         jnz     1b  
         sfence  
         pop     %ebp  
         ret  
   
 /*  
  * void sse2_copy_page(void *src, void *dst)  
  *  
  * Copy a page without polluting the cache.  
  */  
 ENTRY(sse2_copy_page)  
         pushl   %ebp  
         pushl   %ebx  
         pushl   %esi  
         pushl   %edi  
         movl    20(%esp), %esi  
         movl    24(%esp), %edi  
         movl    $PAGE_SIZE, %ebp  
         .align  16  
 1:  
         movl    0(%esi), %eax  
         movl    4(%esi), %ebx  
         movl    8(%esi), %ecx  
         movl    12(%esi), %edx  
         movnti  %eax, 0(%edi)  
         movnti  %ebx, 4(%edi)  
         movnti  %ecx, 8(%edi)  
         movnti  %edx, 12(%edi)  
         subl    $16, %ebp  
         leal    16(%esi), %esi  
         leal    16(%edi), %edi  
         jnz     1b  
         sfence  
         popl    %edi  
         popl    %esi  
         popl    %ebx  
         popl    %ebp  
         ret  

Legend:
Removed from v.1.34.2.10  
changed lines
  Added in v.1.35

CVSweb <webmaster@jp.NetBSD.org>