[BACK]Return to locore.S CVS log [TXT][DIR] Up to [cvs.NetBSD.org] / src / sys / arch / i386 / i386

Please note that diffs are not public domain; they are subject to the copyright notices on the relevant files.

Diff for /src/sys/arch/i386/i386/locore.S between version 1.50.2.1 and 1.58.6.7

version 1.50.2.1, 2007/09/23 18:28:16 version 1.58.6.7, 2008/01/20 17:51:18
Line 5 
Line 5 
  */   */
   
 /*  /*
    * Copyright (c) 2006 Manuel Bouyer.
    *
    * Redistribution and use in source and binary forms, with or without
    * modification, are permitted provided that the following conditions
    * are met:
    * 1. Redistributions of source code must retain the above copyright
    *    notice, this list of conditions and the following disclaimer.
    * 2. Redistributions in binary form must reproduce the above copyright
    *    notice, this list of conditions and the following disclaimer in the
    *    documentation and/or other materials provided with the distribution.
    * 3. All advertising materials mentioning features or use of this software
    *    must display the following acknowledgement:
    *      This product includes software developed by Manuel Bouyer.
    * 4. The name of the author may not be used to endorse or promote products
    *    derived from this software without specific prior written permission.
    *
    * THIS SOFTWARE IS PROVIDED BY THE AUTHOR ``AS IS'' AND ANY EXPRESS OR
    * IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES
    * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.
    * IN NO EVENT SHALL THE AUTHOR BE LIABLE FOR ANY DIRECT, INDIRECT,
    * INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT
    * NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
    * DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
    * THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
    * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF
    * THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
    *
    */
   
   /*
  * Copyright (c) 2001 Wasabi Systems, Inc.   * Copyright (c) 2001 Wasabi Systems, Inc.
  * All rights reserved.   * All rights reserved.
  *   *
Line 110 
Line 140 
  *      @(#)locore.s    7.3 (Berkeley) 5/13/91   *      @(#)locore.s    7.3 (Berkeley) 5/13/91
  */   */
   
   #include <machine/asm.h>
   __KERNEL_RCSID(0, "$NetBSD$");
   
 #include "opt_compat_oldboot.h"  #include "opt_compat_oldboot.h"
 #include "opt_cputype.h"  
 #include "opt_ddb.h"  #include "opt_ddb.h"
 #include "opt_realmem.h"  #include "opt_realmem.h"
 #include "opt_vm86.h"  #include "opt_vm86.h"
   #include "opt_xen.h"
   
 #include "npx.h"  #include "npx.h"
 #include "assym.h"  #include "assym.h"
Line 130 
Line 163 
 #include <machine/specialreg.h>  #include <machine/specialreg.h>
 #include <machine/trap.h>  #include <machine/trap.h>
 #include <machine/i82489reg.h>  #include <machine/i82489reg.h>
 #include <machine/multiboot.h>  
 #include <machine/asm.h>  
 #include <machine/frameasm.h>  #include <machine/frameasm.h>
 #include <machine/i82489reg.h>  #include <machine/i82489reg.h>
   #ifndef XEN
   #include <machine/multiboot.h>
   #endif
   
 /* XXX temporary kluge; these should not be here */  /* XXX temporary kluge; these should not be here */
 /* Get definitions for IOM_BEGIN, IOM_END, and IOM_SIZE */  /* Get definitions for IOM_BEGIN, IOM_END, and IOM_SIZE */
 #include <dev/isa/isareg.h>  #include <dev/isa/isareg.h>
   
   #ifdef XEN
   /*
    * Xen guest identifier and loader selection
    */
   .section __xen_guest
   #ifdef XEN3
           .ascii  "GUEST_OS=netbsd,GUEST_VER=3.0,XEN_VER=xen-3.0"
   #if defined(DOM0OPS) || !defined(XEN_COMPAT_030001)
           .ascii  ",VIRT_BASE=0xc0000000" /* KERNBASE */
           .ascii  ",ELF_PADDR_OFFSET=0xc0000000" /* KERNBASE */
   #else
           .ascii  ",VIRT_BASE=0xc0100000" /* KERNTEXTOFF */
           .ascii  ",ELF_PADDR_OFFSET=0xc0100000" /* KERNTEXTOFF */
   #endif
           .ascii  ",VIRT_ENTRY=0xc0100000" /* KERNTEXTOFF */
   #if !defined(XEN_COMPAT_030001)
           .ascii  ",HYPERCALL_PAGE=0x00000101"
                   /* (???+HYPERCALL_PAGE_OFFSET)/PAGE_SIZE) */
   #endif
   #ifdef PAE
           .ascii  ",PAE=yes[extended-cr3]"
   #endif
   #else /* !XEN3 */
           .ascii  "GUEST_OS=netbsd,GUEST_VER=2.0,XEN_VER=2.0"
   #endif /* XEN3 */
           .ascii  ",LOADER=generic"
   #if (NKSYMS || defined(DDB) || defined(LKM)) && !defined(SYMTAB_SPACE)
           .ascii  ",BSD_SYMTAB=yes"
   #endif
           .byte   0
   #endif
   
 /*  /*
  * Initialization   * Initialization
  */   */
Line 179  _C_LABEL(cpu):  .long 0 # are we 80486, 
Line 245  _C_LABEL(cpu):  .long 0 # are we 80486, 
 _C_LABEL(atdevbase):    .long   0       # location of start of iomem in virtual  _C_LABEL(atdevbase):    .long   0       # location of start of iomem in virtual
 _C_LABEL(proc0uarea):   .long   0  _C_LABEL(proc0uarea):   .long   0
 _C_LABEL(PDPpaddr):     .long   0       # paddr of PDP, for libkvm  _C_LABEL(PDPpaddr):     .long   0       # paddr of PDP, for libkvm
   _C_LABEL(tablesize):    .long   0
   
         .space 512          .space 512
 tmpstk:  tmpstk:
   
   #ifndef XEN
 #define _RELOC(x)       ((x) - KERNBASE)  #define _RELOC(x)       ((x) - KERNBASE)
   #else
   #define _RELOC(x)       ((x))
   #endif /* XEN */
 #define RELOC(x)        _RELOC(_C_LABEL(x))  #define RELOC(x)        _RELOC(_C_LABEL(x))
   
         .text          .text
Line 192  tmpstk:
Line 262  tmpstk:
         .set    _C_LABEL(kernel_text),KERNTEXTOFF          .set    _C_LABEL(kernel_text),KERNTEXTOFF
   
         .globl  start          .globl  start
   #ifndef XEN
 start:  movw    $0x1234,0x472                   # warm boot  start:  movw    $0x1234,0x472                   # warm boot
   
 #if defined(MULTIBOOT)  #if defined(MULTIBOOT)
Line 424  try586: /* Use the `cpuid' instruction. 
Line 495  try586: /* Use the `cpuid' instruction. 
 /*  /*
  * Virtual address space of kernel:   * Virtual address space of kernel:
  *   *
  * text | data | bss | [syms] | page dir | proc0 kstack   * text | data | bss | [syms] | page dir | proc0 kstack | L1 ptp
  *                            0          1       2      3   *                            0          1       2      3
  */   */
   
Line 432  try586: /* Use the `cpuid' instruction. 
Line 503  try586: /* Use the `cpuid' instruction. 
 #define PROC0_STK_OFF   (PROC0_PDIR_OFF + PAGE_SIZE)  #define PROC0_STK_OFF   (PROC0_PDIR_OFF + PAGE_SIZE)
 #define PROC0_PTP1_OFF  (PROC0_STK_OFF + UPAGES * PAGE_SIZE)  #define PROC0_PTP1_OFF  (PROC0_STK_OFF + UPAGES * PAGE_SIZE)
   
 #define TABLESIZE       ((NKL2_KIMG_ENTRIES + 1 + UPAGES) * PAGE_SIZE)  
   
 /*  /*
  * fillkpt   * fillkpt
  *      eax = pte (page frame | control | status)   *      eax = pte (page frame | control | status)
Line 460  try586: /* Use the `cpuid' instruction. 
Line 529  try586: /* Use the `cpuid' instruction. 
 1:  1:
 #endif  #endif
   
         /* Clear tables */          /* Compute sizes */
         movl    %edi,%esi                       # edi = esym ? esym : end          movl    %edi,%esi                       # edi = esym ? esym : end
         addl    $PGOFSET,%esi                   # page align up          addl    $PGOFSET,%esi                   # page align up
         andl    $~PGOFSET,%esi          andl    $~PGOFSET,%esi
   
           /* nkptp[1] = (esi + ~L2_FRAME) >> L2_SHIFT + 1; */
           movl    %esi,%eax
           addl    $~L2_FRAME,%eax
           shrl    $L2_SHIFT,%eax
           incl    %eax            /* one more ptp for VAs stolen by bootstrap */
   1:      movl    %eax,RELOC(nkptp)+1*4
   
           /* tablesize = (1 + UPAGES + nkptp) << PGSHIFT; */
           addl    $(1+UPAGES),%eax
           shll    $PGSHIFT,%eax
           movl    %eax,RELOC(tablesize)
   
           /* ensure that nkptp covers bootstrap tables */
           addl    %esi,%eax
           addl    $~L2_FRAME,%eax
           shrl    $L2_SHIFT,%eax
           incl    %eax
           cmpl    %eax,RELOC(nkptp)+1*4
           jnz     1b
   
           /* Clear tables */
         movl    %esi,%edi          movl    %esi,%edi
         xorl    %eax,%eax          xorl    %eax,%eax
         cld          cld
         movl    $TABLESIZE,%ecx          movl    RELOC(tablesize),%ecx
         shrl    $2,%ecx          shrl    $2,%ecx
         rep          rep
         stosl          stosl
Line 479  try586: /* Use the `cpuid' instruction. 
Line 569  try586: /* Use the `cpuid' instruction. 
  * Build initial page tables.   * Build initial page tables.
  */   */
         /*          /*
          * Compute etext - KERNBASE. This can't be > 4G, or we can't deal           * Compute &__data_start - KERNBASE. This can't be > 4G,
          * with it anyway, since we can't load it in 32 bit mode. So use           * or we can't deal with it anyway, since we can't load it in
          * the bottom 32 bits.           * 32 bit mode. So use the bottom 32 bits.
          */           */
         movl    $RELOC(etext),%edx          movl    $RELOC(__data_start),%edx
         addl    $PGOFSET,%edx  
         andl    $~PGOFSET,%edx          andl    $~PGOFSET,%edx
   
         /*          /*
Line 504  try586: /* Use the `cpuid' instruction. 
Line 593  try586: /* Use the `cpuid' instruction. 
   
         /* Map the data, BSS, and bootstrap tables read-write. */          /* Map the data, BSS, and bootstrap tables read-write. */
         leal    (PG_V|PG_KW)(%edx),%eax          leal    (PG_V|PG_KW)(%edx),%eax
         movl    $TABLESIZE,%ecx          movl    RELOC(tablesize),%ecx
         addl    %esi,%ecx                               # end of tables          addl    %esi,%ecx                               # end of tables
         subl    %edx,%ecx                               # subtract end of text          subl    %edx,%ecx                               # subtract end of text
         shrl    $PGSHIFT,%ecx          shrl    $PGSHIFT,%ecx
Line 522  try586: /* Use the `cpuid' instruction. 
Line 611  try586: /* Use the `cpuid' instruction. 
         leal    (PROC0_PDIR_OFF)(%esi),%ebx          leal    (PROC0_PDIR_OFF)(%esi),%ebx
         leal    (PROC0_PTP1_OFF)(%esi),%eax          leal    (PROC0_PTP1_OFF)(%esi),%eax
         orl     $(PG_V|PG_KW), %eax          orl     $(PG_V|PG_KW), %eax
         movl    $NKL2_KIMG_ENTRIES,%ecx          movl    RELOC(nkptp)+1*4,%ecx
         fillkpt          fillkpt
   
         /* Set up top level entries for actual kernel mapping */          /* Set up top level entries for actual kernel mapping */
         leal    (PROC0_PDIR_OFF + L2_SLOT_KERNBASE*4)(%esi),%ebx          leal    (PROC0_PDIR_OFF + L2_SLOT_KERNBASE*4)(%esi),%ebx
         leal    (PROC0_PTP1_OFF)(%esi),%eax          leal    (PROC0_PTP1_OFF)(%esi),%eax
         orl     $(PG_V|PG_KW), %eax          orl     $(PG_V|PG_KW), %eax
         movl    $NKL2_KIMG_ENTRIES,%ecx          movl    RELOC(nkptp)+1*4,%ecx
         fillkpt          fillkpt
   
         /* Install a PDE recursively mapping page directory as a page table! */          /* Install a PDE recursively mapping page directory as a page table! */
Line 566  begin:
Line 655  begin:
          * There's no need anymore for the identity mapping in low           * There's no need anymore for the identity mapping in low
          * memory, remove it.           * memory, remove it.
          */           */
         movl    $NKL2_KIMG_ENTRIES,%ecx          movl    _C_LABEL(nkptp)+1*4,%ecx
         leal    (PROC0_PDIR_OFF)(%esi),%ebx     # old, phys  address of PDIR          leal    (PROC0_PDIR_OFF)(%esi),%ebx     # old, phys  address of PDIR
         addl    $(KERNBASE), %ebx       # new, virtual address of PDIR          addl    $(KERNBASE), %ebx       # new, virtual address of PDIR
 1:      movl    $0,(%ebx)  1:      movl    $0,(%ebx)
Line 574  begin:
Line 663  begin:
         loop    1b          loop    1b
   
         /* Relocate atdevbase. */          /* Relocate atdevbase. */
         movl    $(TABLESIZE+KERNBASE),%edx          movl    $KERNBASE,%edx
           addl    _C_LABEL(tablesize),%edx
         addl    %esi,%edx          addl    %esi,%edx
         movl    %edx,_C_LABEL(atdevbase)          movl    %edx,_C_LABEL(atdevbase)
   
Line 598  begin:
Line 688  begin:
         call    _C_LABEL(initgdt)          call    _C_LABEL(initgdt)
         addl    $4,%esp          addl    $4,%esp
   
         movl    $TABLESIZE,%eax          movl    _C_LABEL(tablesize),%eax
         addl    %esi,%eax               # skip past stack and page tables          addl    %esi,%eax               # skip past stack and page tables
   
         pushl   %eax          pushl   %eax
Line 624  begin:
Line 714  begin:
 #endif /* SAFARI_FIFO_HACK */  #endif /* SAFARI_FIFO_HACK */
   
         call    _C_LABEL(main)          call    _C_LABEL(main)
   #else /* XEN */
   start:
           /* First, reset the PSL. */
           pushl   $PSL_MBO
           popfl
   
           cld
   #ifdef XEN3
           movl    %esp, %ebx              # save start of available space
   #else
           movl    %esi,%ebx               # save start_info pointer
   #endif
           movl    $_RELOC(tmpstk),%esp    # bootstrap stack end location
   
           /* Clear BSS first so that there are no surprises... */
           xorl    %eax,%eax
           movl    $RELOC(__bss_start),%edi
           movl    $RELOC(_end),%ecx
           subl    %edi,%ecx
           rep stosb
   
           /* Copy the necessary stuff from start_info structure. */
           /* We need to copy shared_info early, so that sti/cli work */
           movl    $RELOC(start_info_union),%edi
           movl    $128,%ecx
           rep movsl
   
           /* Clear segment registers; always null in proc0. */
           xorl    %eax,%eax
           movw    %ax,%fs
           movw    %ax,%gs
           decl    %eax
           movl    %eax,RELOC(cpu_info_primary)+CPU_INFO_LEVEL
   
           xorl    %eax,%eax
           cpuid
           movl    %eax,RELOC(cpu_info_primary)+CPU_INFO_LEVEL
   
           call    xen_pmap_bootstrap
           /*
            * First avail returned by xen_pmap_bootstrap in %eax
            */
           movl    %eax, %esi;
           movl    %esi, _C_LABEL(proc0uarea)
   
   #define PROC0PDIR       ((0)              * PAGE_SIZE)
   #define PROC0STACK      ((1)              * PAGE_SIZE)
   
           /* Set up bootstrap stack. */
           leal    (KSTACK_SIZE-FRAMESIZE)(%eax),%esp
           xorl    %ebp,%ebp               # mark end of frames
   
           addl    $USPACE, %esi
           subl    $KERNBASE, %esi         #init386 want a physical address
           pushl   %esi
           call    _C_LABEL(init386)       # wire 386 chip for unix operation
           addl    $4,%esp
           call    _C_LABEL(main)
   
   #if defined(XEN3) && !defined(XEN_COMPAT_030001)
   /* space for the hypercall call page */
   #define HYPERCALL_PAGE_OFFSET 0x1000
   .org HYPERCALL_PAGE_OFFSET
   ENTRY(hypercall_page)
   .skip 0x1000
   #endif /* defined(XEN3) && !defined(XEN_COMPAT_030001) */
   
   /*
    * void lgdt_finish(void);
    * Finish load a new GDT pointer (do any necessary cleanup).
    * XXX It's somewhat questionable whether reloading all the segment registers
    * is necessary, since the actual descriptor data is not changed except by
    * process creation and exit, both of which clean up via task switches.  OTOH,
    * this only happens at run time when the GDT is resized.
    */
   /* LINTSTUB: Func: void lgdt_finish(void) */
   NENTRY(lgdt_finish)
           movl    $GSEL(GDATA_SEL, SEL_KPL),%eax
           movw    %ax,%ds
           movw    %ax,%es
           movw    %ax,%gs
           movw    %ax,%ss
           movl    $GSEL(GCPU_SEL, SEL_KPL),%eax
           movw    %ax,%fs
           /* Reload code selector by doing intersegment return. */
           popl    %eax
           pushl   $GSEL(GCODE_SEL, SEL_KPL)
           pushl   %eax
           lret
   
   #endif /* XEN */
   
 /*  /*
  * void lwp_trampoline(void);   * void lwp_trampoline(void);
Line 643  NENTRY(lwp_trampoline)
Line 824  NENTRY(lwp_trampoline)
         pushl   %ebx          pushl   %ebx
         call    *%esi          call    *%esi
         addl    $4,%esp          addl    $4,%esp
         DO_DEFERRED_SWITCH(%eax)          DO_DEFERRED_SWITCH
         INTRFASTEXIT          INTRFASTEXIT
         /* NOTREACHED */          /* NOTREACHED */
   
Line 669  NENTRY(sigcode)
Line 850  NENTRY(sigcode)
 _C_LABEL(esigcode):  _C_LABEL(esigcode):
   
 /*  /*
  * void lgdt(struct region_descriptor *rdp);  
  *  
  * Load a new GDT pointer (and do any necessary cleanup).  
  * XXX It's somewhat questionable whether reloading all the segment registers  
  * is necessary, since the actual descriptor data is not changed except by  
  * process creation and exit, both of which clean up via task switches.  OTOH,  
  * this only happens at run time when the GDT is resized.  
  */  
 NENTRY(lgdt)  
         /* Reload the descriptor table. */  
         movl    4(%esp),%eax  
         lgdt    (%eax)  
         /* Flush the prefetch queue. */  
         jmp     1f  
         nop  
 1:      /* Reload "stale" selectors. */  
         movl    $GSEL(GDATA_SEL, SEL_KPL),%eax  
         movw    %ax,%ds  
         movw    %ax,%es  
         movw    %ax,%gs  
         movw    %ax,%ss  
         movl    $GSEL(GCPU_SEL, SEL_KPL),%eax  
         movw    %ax,%fs  
         /* Reload code selector by doing intersegment return. */  
         popl    %eax  
         pushl   $GSEL(GCODE_SEL, SEL_KPL)  
         pushl   %eax  
         lret  
   
 /*  
  * void x86_flush()  
  *  
  * Flush instruction pipelines by doing an intersegment (far) return.  
  */  
 NENTRY(x86_flush)  
         popl    %eax  
         pushl   $GSEL(GCODE_SEL, SEL_KPL)  
         pushl   %eax  
         lret  
   
 /*  
  * int setjmp(label_t *)   * int setjmp(label_t *)
  *   *
  * Used primarily by DDB.   * Used primarily by DDB.
Line 743  ENTRY(longjmp)
Line 883  ENTRY(longjmp)
         movl    $1,%eax                 # return 1          movl    $1,%eax                 # return 1
         ret          ret
   
   ENTRY(dumpsys)
           # mimic cpu_switchto() for postmortem debugging.
   
           # build a fake switch frame.
           pushl   %ebx
           pushl   %esi
           pushl   %edi
   
           # save a context.
           movl    $dumppcb,%eax
           movl    %esp,PCB_ESP(%eax)
           movl    %ebp,PCB_EBP(%eax)
   
           call    _C_LABEL(dodumpsys)
   
           addl    $(3*4), %esp    # sizeof(switchframe) - sizeof(%eip)
           ret
   
 /*  /*
  * struct lwp *cpu_switchto(struct lwp *oldlwp, struct newlwp)   * struct lwp *cpu_switchto(struct lwp *oldlwp, struct newlwp,
    *                          bool returning)
  *   *
  *      1. if (oldlwp != NULL), save its context.   *      1. if (oldlwp != NULL), save its context.
  *      2. then, restore context of newlwp.   *      2. then, restore context of newlwp.
Line 760  ENTRY(cpu_switchto)
Line 919  ENTRY(cpu_switchto)
   
         movl    16(%esp),%esi           # oldlwp          movl    16(%esp),%esi           # oldlwp
         movl    20(%esp),%edi           # newlwp          movl    20(%esp),%edi           # newlwp
           movl    24(%esp),%edx           # returning
         testl   %esi,%esi          testl   %esi,%esi
         jz      1f          jz      1f
   
Line 773  ENTRY(cpu_switchto)
Line 933  ENTRY(cpu_switchto)
         movl    PCB_EBP(%ebx),%ebp          movl    PCB_EBP(%ebx),%ebp
         movl    PCB_ESP(%ebx),%esp          movl    PCB_ESP(%ebx),%esp
   
         /* Switch TSS.  Reset "task busy" flag before loading. */          /*
         movl    %cr3,%eax           * Set curlwp.  This must be globally visible in order to permit
         movl    %eax,PCB_CR3(%ebx)      # for TSS gates           * non-interlocked mutex release.
         movl    CPUVAR(GDT),%eax           */
         movl    L_MD_TSS_SEL(%edi),%edx          movl    %edi,%ecx
         andl    $~0x0200,4(%eax,%edx, 1)          xchgl   %ecx,CPUVAR(CURLWP)
         ltr     %dx  
   
         /* Set curlwp. */          /* Skip the rest if returning to a pinned LWP. */
         movl    %edi,CPUVAR(CURLWP)          testl   %edx,%edx
           jnz     4f
   
   #ifdef XEN
           pushl   %edi
           call    _C_LABEL(i386_switch_context)
           addl    $4,%esp
   #else /* XEN */
           /* Switch ring0 esp */
           movl    PCB_ESP0(%ebx),%eax
           movl    %eax,CPUVAR(ESP0)
   
         /* Don't bother with the rest if switching to a system process. */          /* Don't bother with the rest if switching to a system process. */
         testl   $LW_SYSTEM,L_FLAG(%edi)          testl   $LW_SYSTEM,L_FLAG(%edi)
         jnz     4f          jnz     4f
   
           /* Restore thread-private %fs/%gs descriptors. */
           movl    CPUVAR(GDT),%ecx
           movl    PCB_FSD(%ebx), %eax
           movl    PCB_FSD+4(%ebx), %edx
           movl    %eax, (GUFS_SEL*8)(%ecx)
           movl    %edx, (GUFS_SEL*8+4)(%ecx)
           movl    PCB_GSD(%ebx), %eax
           movl    PCB_GSD+4(%ebx), %edx
           movl    %eax, (GUGS_SEL*8)(%ecx)
           movl    %edx, (GUGS_SEL*8+4)(%ecx)
   #endif /* XEN */
   
           /* Switch I/O bitmap */
           movl    PCB_IOMAP(%ebx),%eax
           orl     %eax,%eax
           jnz,pn  .Lcopy_iobitmap
           movl    $(IOMAP_INVALOFF << 16),CPUVAR(IOBASE)
   .Liobitmap_done:
   
         /* Is this process using RAS (restartable atomic sequences)? */          /* Is this process using RAS (restartable atomic sequences)? */
         movl    L_PROC(%edi),%eax          movl    L_PROC(%edi),%eax
         cmpl    $0,P_RASLIST(%eax)          cmpl    $0,P_RASLIST(%eax)
Line 798  ENTRY(cpu_switchto)
Line 986  ENTRY(cpu_switchto)
          * FPU IPIs can alter the LWP's saved cr0.  Dropping the priority           * FPU IPIs can alter the LWP's saved cr0.  Dropping the priority
          * is deferred until mi_switch(), when cpu_switchto() returns.           * is deferred until mi_switch(), when cpu_switchto() returns.
          */           */
 2:      movl    $IPL_IPI,CPUVAR(ILEVEL)  2:
   #ifndef XEN
           movl    $IPL_IPI,CPUVAR(ILEVEL)
         movl    PCB_CR0(%ebx),%ecx          movl    PCB_CR0(%ebx),%ecx
         movl    %cr0,%edx          movl    %cr0,%edx
   
Line 815  ENTRY(cpu_switchto)
Line 1005  ENTRY(cpu_switchto)
 3:      cmpl    %edx,%ecx  3:      cmpl    %edx,%ecx
         je      4f          je      4f
         movl    %ecx,%cr0          movl    %ecx,%cr0
   #endif /* XEN */
   
         /* Return to the new LWP, returning 'oldlwp' in %eax. */          /* Return to the new LWP, returning 'oldlwp' in %eax. */
 4:      movl    %esi,%eax  4:      movl    %esi,%eax
Line 835  ENTRY(cpu_switchto)
Line 1026  ENTRY(cpu_switchto)
         movl    %eax,TF_EIP(%ecx)          movl    %eax,TF_EIP(%ecx)
         jmp     2b          jmp     2b
   
   .Lcopy_iobitmap:
           /* Copy I/O bitmap. */
           movl    $(IOMAPSIZE/4),%ecx
           pushl   %esi
           pushl   %edi
           movl    %eax,%esi               /* pcb_iomap */
           movl    CPUVAR(SELF),%edi
           leal    CPU_INFO_IOMAP(%edi),%edi
           rep
           movsl
           popl    %edi
           popl    %esi
           movl    $((CPU_INFO_IOMAP - CPU_INFO_TSS) << 16),CPUVAR(IOBASE)
           jmp     .Liobitmap_done
   
 /*  /*
  * void savectx(struct pcb *pcb);   * void savectx(struct pcb *pcb);
  *   *
Line 894  syscall1:
Line 1100  syscall1:
         addl    $4,%esp          addl    $4,%esp
 .Lsyscall_checkast:  .Lsyscall_checkast:
         /* Check for ASTs on exit to user mode. */          /* Check for ASTs on exit to user mode. */
         cli          CLI(%eax)
         CHECK_ASTPENDING(%eax)          CHECK_ASTPENDING(%eax)
         je      1f          je      1f
         /* Always returning to user mode here. */          /* Always returning to user mode here. */
         CLEAR_ASTPENDING(%eax)          CLEAR_ASTPENDING(%eax)
         sti          STI(%eax)
         /* Pushed T_ASTFLT into tf_trapno on entry. */          /* Pushed T_ASTFLT into tf_trapno on entry. */
         pushl   %esp          pushl   %esp
         call    _C_LABEL(trap)          call    _C_LABEL(trap)
         addl    $4,%esp          addl    $4,%esp
         jmp     .Lsyscall_checkast      /* re-check ASTs */          jmp     .Lsyscall_checkast      /* re-check ASTs */
 1:      CHECK_DEFERRED_SWITCH(%eax)  1:      CHECK_DEFERRED_SWITCH
         jnz     9f          jnz     9f
   #ifdef XEN
           STIC(%eax)
           jz      14f
           call    _C_LABEL(stipending)
           testl   %eax,%eax
           jz      14f
           /* process pending interrupts */
           CLI(%eax)
           movl    CPUVAR(ILEVEL), %ebx
           movl    $.Lsyscall_resume, %esi # address to resume loop at
   .Lsyscall_resume:
           movl    %ebx,%eax       # get cpl
           movl    CPUVAR(IUNMASK)(,%eax,4),%eax
           andl    CPUVAR(IPENDING),%eax   # any non-masked bits left?
           jz      17f
           bsrl    %eax,%eax
           btrl    %eax,CPUVAR(IPENDING)
           movl    CPUVAR(ISOURCES)(,%eax,4),%eax
           jmp     *IS_RESUME(%eax)
   17:     movl    %ebx, CPUVAR(ILEVEL)    #restore cpl
           jmp     .Lsyscall_checkast
   14:
   #endif /* XEN */
 #ifndef DIAGNOSTIC  #ifndef DIAGNOSTIC
         INTRFASTEXIT          INTRFASTEXIT
 #else /* DIAGNOSTIC */  #else /* DIAGNOSTIC */
         cmpl    $IPL_NONE,CPUVAR(ILEVEL)          cmpl    $IPL_NONE,CPUVAR(ILEVEL)
         jne     3f          jne     3f
         INTRFASTEXIT          INTRFASTEXIT
 3:      sti  3:      STI(%eax)
         pushl   $4f          pushl   $4f
         call    _C_LABEL(printf)          call    _C_LABEL(printf)
         addl    $4,%esp          addl    $4,%esp
 #ifdef DDB          pushl   $IPL_NONE
         int     $3          call    _C_LABEL(spllower)
 #endif /* DDB */          addl    $4,%esp
         movl    $IPL_NONE,CPUVAR(ILEVEL)          jmp     .Lsyscall_checkast
         jmp     2b  
 4:      .asciz  "WARNING: SPL NOT LOWERED ON SYSCALL EXIT\n"  4:      .asciz  "WARNING: SPL NOT LOWERED ON SYSCALL EXIT\n"
 5:      .asciz  "WARNING: SPL NOT ZERO ON SYSCALL ENTRY\n"  5:      .asciz  "WARNING: SPL NOT ZERO ON SYSCALL ENTRY\n"
 6:      .asciz  "WARNING: WANT PMAPLOAD ON SYSCALL ENTRY\n"  6:      .asciz  "WARNING: WANT PMAPLOAD ON SYSCALL ENTRY\n"
 #endif /* DIAGNOSTIC */  #endif /* DIAGNOSTIC */
 9:      sti  9:      STI(%eax)
         call    _C_LABEL(pmap_load)          call    _C_LABEL(pmap_load)
         jmp     .Lsyscall_checkast      /* re-check ASTs */          jmp     .Lsyscall_checkast      /* re-check ASTs */
   

Legend:
Removed from v.1.50.2.1  
changed lines
  Added in v.1.58.6.7

CVSweb <webmaster@jp.NetBSD.org>