[BACK]Return to locore.S CVS log [TXT][DIR] Up to [cvs.NetBSD.org] / src / sys / arch / i386 / i386

Please note that diffs are not public domain; they are subject to the copyright notices on the relevant files.

Diff for /src/sys/arch/i386/i386/locore.S between version 1.125 and 1.150

version 1.125, 2016/05/26 07:24:55 version 1.150, 2017/08/10 14:13:45
Line 5 
Line 5 
  */   */
   
 /*  /*
    * Copyright (c) 1998, 2000, 2004, 2006, 2007, 2009, 2016
    * The NetBSD Foundation, Inc., All rights reserved.
    *
    * This code is derived from software contributed to The NetBSD Foundation
    * by Charles M. Hannum, by Andrew Doran and by Maxime Villard.
    *
    * Redistribution and use in source and binary forms, with or without
    * modification, are permitted provided that the following conditions
    * are met:
    * 1. Redistributions of source code must retain the above copyright
    *    notice, this list of conditions and the following disclaimer.
    * 2. Redistributions in binary form must reproduce the above copyright
    *    notice, this list of conditions and the following disclaimer in the
    *    documentation and/or other materials provided with the distribution.
    *
    * THIS SOFTWARE IS PROVIDED BY THE NETBSD FOUNDATION, INC. AND CONTRIBUTORS
    * ``AS IS'' AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
    * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
    * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL THE FOUNDATION OR CONTRIBUTORS
    * BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR
    * CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF
    * SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS
    * INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN
    * CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)
    * ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE
    * POSSIBILITY OF SUCH DAMAGE.
    */
   
   /*
  * Copyright (c) 2006 Manuel Bouyer.   * Copyright (c) 2006 Manuel Bouyer.
  *   *
  * Redistribution and use in source and binary forms, with or without   * Redistribution and use in source and binary forms, with or without
Line 65 
Line 94 
  */   */
   
 /*-  /*-
  * Copyright (c) 1998, 2000, 2004, 2006, 2007, 2009 The NetBSD Foundation, Inc.  
  * All rights reserved.  
  *  
  * This code is derived from software contributed to The NetBSD Foundation  
  * by Charles M. Hannum, and by Andrew Doran.  
  *  
  * Redistribution and use in source and binary forms, with or without  
  * modification, are permitted provided that the following conditions  
  * are met:  
  * 1. Redistributions of source code must retain the above copyright  
  *    notice, this list of conditions and the following disclaimer.  
  * 2. Redistributions in binary form must reproduce the above copyright  
  *    notice, this list of conditions and the following disclaimer in the  
  *    documentation and/or other materials provided with the distribution.  
  *  
  * THIS SOFTWARE IS PROVIDED BY THE NETBSD FOUNDATION, INC. AND CONTRIBUTORS  
  * ``AS IS'' AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED  
  * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR  
  * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL THE FOUNDATION OR CONTRIBUTORS  
  * BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR  
  * CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF  
  * SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS  
  * INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN  
  * CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)  
  * ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE  
  * POSSIBILITY OF SUCH DAMAGE.  
  */  
   
 /*-  
  * Copyright (c) 1990 The Regents of the University of California.   * Copyright (c) 1990 The Regents of the University of California.
  * All rights reserved.   * All rights reserved.
  *   *
Line 130 
Line 130 
 #include <machine/asm.h>  #include <machine/asm.h>
 __KERNEL_RCSID(0, "$NetBSD$");  __KERNEL_RCSID(0, "$NetBSD$");
   
 #include "opt_compat_oldboot.h"  
 #include "opt_copy_symtab.h"  #include "opt_copy_symtab.h"
 #include "opt_ddb.h"  #include "opt_ddb.h"
 #include "opt_modular.h"  #include "opt_modular.h"
Line 147  __KERNEL_RCSID(0, "$NetBSD$");
Line 146  __KERNEL_RCSID(0, "$NetBSD$");
 #include <sys/errno.h>  #include <sys/errno.h>
 #include <sys/syscall.h>  #include <sys/syscall.h>
   
 #include <machine/cputypes.h>  
 #include <machine/segments.h>  #include <machine/segments.h>
 #include <machine/specialreg.h>  #include <machine/specialreg.h>
 #include <machine/trap.h>  #include <machine/trap.h>
 #include <machine/i82489reg.h>  #include <machine/i82489reg.h>
 #include <machine/frameasm.h>  #include <machine/frameasm.h>
 #include <machine/i82489reg.h>  #include <machine/i82489reg.h>
   #include <machine/cputypes.h>
   
 #ifndef XEN  #ifndef XEN
 #include <machine/multiboot.h>  #include <machine/multiboot.h>
 #endif  #endif
Line 218  __KERNEL_RCSID(0, "$NetBSD$");
Line 218  __KERNEL_RCSID(0, "$NetBSD$");
 2:                                      ;  2:                                      ;
   
 /*  /*
    * fillkpt_blank - Fill in a kernel page table with blank entries
    *      ebx = page table address
    *      ecx = number of pages to map
    */
   #define fillkpt_blank   \
           cmpl    $0,%ecx                 ;       /* zero-sized? */       \
           je      2f                      ; \
   1:      movl    $0,(PDE_SIZE-4)(%ebx)   ;       /* upper 32 bits: 0 */  \
           movl    $0,(%ebx)               ;       /* lower 32 bits: 0 */  \
           addl    $PDE_SIZE,%ebx          ;       /* next PTE/PDE */      \
           loop    1b                      ; \
   2:                                      ;
   
   /*
  * killkpt - Destroy a kernel page table   * killkpt - Destroy a kernel page table
  *      ebx = page table address   *      ebx = page table address
  *      ecx = number of pages to destroy   *      ecx = number of pages to destroy
Line 255  __KERNEL_RCSID(0, "$NetBSD$");
Line 269  __KERNEL_RCSID(0, "$NetBSD$");
  */   */
         .data          .data
   
           .globl  _C_LABEL(tablesize)
         .globl  _C_LABEL(nox_flag)          .globl  _C_LABEL(nox_flag)
         .globl  _C_LABEL(cputype)          .globl  _C_LABEL(cputype)
         .globl  _C_LABEL(cpuid_level)          .globl  _C_LABEL(cpuid_level)
         .globl  _C_LABEL(esym)          .globl  _C_LABEL(esym)
         .globl  _C_LABEL(eblob)          .globl  _C_LABEL(eblob)
         .globl  _C_LABEL(atdevbase)          .globl  _C_LABEL(atdevbase)
         .globl  _C_LABEL(lwp0uarea)  
         .globl  _C_LABEL(PDPpaddr)          .globl  _C_LABEL(PDPpaddr)
           .globl  _C_LABEL(lwp0uarea)
         .globl  _C_LABEL(gdt)          .globl  _C_LABEL(gdt)
         .globl  _C_LABEL(idt)          .globl  _C_LABEL(idt)
         .globl  _C_LABEL(lapic_tpr)  
   
 #if NLAPIC > 0  
 #ifdef __ELF__  
         .align  PAGE_SIZE  
 #else  
         .align  12  
 #endif  
         .globl _C_LABEL(local_apic), _C_LABEL(lapic_id)  
         .type   _C_LABEL(local_apic), @object  
 LABEL(local_apic)  
         .space  LAPIC_ID  
 END(local_apic)  
         .type   _C_LABEL(lapic_id), @object  
 LABEL(lapic_id)  
         .long   0x00000000  
         .space  LAPIC_TPRI-(LAPIC_ID+4)  
 END(lapic_id)  
         .type   _C_LABEL(lapic_tpr), @object  
 LABEL(lapic_tpr)  
         .space  LAPIC_PPRI-LAPIC_TPRI  
 END(lapic_tpr)  
         .type   _C_LABEL(lapic_ppr), @object  
 _C_LABEL(lapic_ppr):  
         .space  LAPIC_ISR-LAPIC_PPRI  
 END(lapic_ppr)  
         .type   _C_LABEL(lapic_isr), @object  
 _C_LABEL(lapic_isr):  
         .space  PAGE_SIZE-LAPIC_ISR  
 END(lapic_isr)  
 #else  
         .type   _C_LABEL(lapic_tpr), @object  
 LABEL(lapic_tpr)  
         .long 0  
 END(lapic_tpr)  
 #endif  
   
           .type   _C_LABEL(tablesize), @object
   _C_LABEL(tablesize):    .long   0
   END(tablesize)
         .type   _C_LABEL(nox_flag), @object          .type   _C_LABEL(nox_flag), @object
 LABEL(nox_flag)         .long   0       /* 32bit NOX flag, set if supported */  LABEL(nox_flag)         .long   0       /* 32bit NOX flag, set if supported */
 END(nox_flag)  END(nox_flag)
Line 309  END(nox_flag)
Line 291  END(nox_flag)
 LABEL(cputype)          .long   0       /* are we 80486, Pentium, or.. */  LABEL(cputype)          .long   0       /* are we 80486, Pentium, or.. */
 END(cputype)  END(cputype)
         .type   _C_LABEL(cpuid_level), @object          .type   _C_LABEL(cpuid_level), @object
 LABEL(cpuid_level)      .long   0  LABEL(cpuid_level)      .long   -1      /* max. level accepted by cpuid instr */
 END(cpuid_level)  END(cpuid_level)
         .type   _C_LABEL(atdevbase), @object          .type   _C_LABEL(atdevbase), @object
 LABEL(atdevbase)        .long   0       /* location of start of iomem in virt */  LABEL(atdevbase)        .long   0       /* location of start of iomem in virt */
Line 320  END(lwp0uarea)
Line 302  END(lwp0uarea)
         .type   _C_LABEL(PDPpaddr), @object          .type   _C_LABEL(PDPpaddr), @object
 LABEL(PDPpaddr)         .long   0       /* paddr of PDP, for libkvm */  LABEL(PDPpaddr)         .long   0       /* paddr of PDP, for libkvm */
 END(PDPpaddr)  END(PDPpaddr)
         .type   _C_LABEL(tablesize), @object  
 _C_LABEL(tablesize):    .long   0  
 END(tablesize)  
   
         /* Space for the temporary stack */          /* Space for the temporary stack */
         .size   tmpstk, tmpstk - .          .size   tmpstk, tmpstk - .
Line 363  _C_LABEL(Multiboot_Header):
Line 342  _C_LABEL(Multiboot_Header):
         jne     1f          jne     1f
   
         /*          /*
          * Indeed, a multiboot-compliant boot loader executed us.  We copy           * Indeed, a multiboot-compliant boot loader executed us. We switch
          * the received Multiboot information structure into kernel's data           * to the temporary stack, and copy the received Multiboot information
          * space to process it later -- after we are relocated.  It will           * structure into kernel's data space to process it later -- after we
          * be safer to run complex C code than doing it at this point.           * are relocated. It will be safer to run complex C code than doing it
            * at this point.
          */           */
           movl    $_RELOC(tmpstk),%esp
         pushl   %ebx            /* Address of Multiboot information */          pushl   %ebx            /* Address of Multiboot information */
         call    _C_LABEL(multiboot_pre_reloc)          call    _C_LABEL(multiboot_pre_reloc)
         addl    $4,%esp          addl    $4,%esp
Line 397  _C_LABEL(Multiboot_Header):
Line 378  _C_LABEL(Multiboot_Header):
         xorl    %eax,%eax          xorl    %eax,%eax
         movw    %ax,%fs          movw    %ax,%fs
         movw    %ax,%gs          movw    %ax,%gs
         decl    %eax  
         movl    %eax,RELOC(cpuid_level)  
   
         /* Find out our CPU type. */          /* Find out our CPU type. */
   
Line 610  no_NOX:
Line 589  no_NOX:
  * +------+--------+------+-----+--------+---------------------+-----------   * +------+--------+------+-----+--------+---------------------+-----------
  *                             (1)      (2)                   (3)   *                             (1)      (2)                   (3)
  *   *
  * -------+------------+   * -------+-------------+
  * TABLES | ISA IO MEM |   * TABLES | ISA I/O MEM |
  * -------+------------+   * -------+-------------+
  *       (4)   *       (4)
  *   *
  * PROC0 STK is obviously not linked as a page level. It just happens to be   * PROC0 STK is obviously not linked as a page level. It just happens to be
Line 623  no_NOX:
Line 602  no_NOX:
  */   */
   
         /* Find end of kernel image; brings us on (1). */          /* Find end of kernel image; brings us on (1). */
         movl    $RELOC(end),%edi          movl    $RELOC(__kernel_end),%edi
   
 #if (NKSYMS || defined(DDB) || defined(MODULAR)) && !defined(makeoptions_COPY_SYMTAB)  #if (NKSYMS || defined(DDB) || defined(MODULAR)) && !defined(makeoptions_COPY_SYMTAB)
         /* Save the symbols (if loaded); brinds us on (2). */          /* Save the symbols (if loaded); brinds us on (2). */
Line 655  no_NOX:
Line 634  no_NOX:
         incl    %eax            /* one more PTP for VAs stolen by bootstrap */          incl    %eax            /* one more PTP for VAs stolen by bootstrap */
 1:      movl    %eax,RELOC(nkptp)+1*4  1:      movl    %eax,RELOC(nkptp)+1*4
   
         /* tablesize = (PDP_SIZE + UPAGES + nkptp) << PGSHIFT; */          /* tablesize = (PDP_SIZE + UPAGES + nkptp[1]) << PGSHIFT; */
         addl    $(PDP_SIZE+UPAGES),%eax          addl    $(PDP_SIZE+UPAGES),%eax
 #ifdef PAE  #ifdef PAE
         incl    %eax            /* one more page for L3 */          incl    %eax            /* one more page for L3 */
Line 665  no_NOX:
Line 644  no_NOX:
 #endif  #endif
         movl    %eax,RELOC(tablesize)          movl    %eax,RELOC(tablesize)
   
         /* Ensure that nkptp covers BOOTSTRAP TABLES. */          /* Ensure that nkptp[1] covers BOOTSTRAP TABLES, ie:
            * (esi + tablesize) >> L2_SHIFT + 1 < nkptp[1] */
         addl    %esi,%eax          addl    %esi,%eax
         addl    $~L2_FRAME,%eax          addl    $~L2_FRAME,%eax
         shrl    $L2_SHIFT,%eax          shrl    $L2_SHIFT,%eax
Line 692  no_NOX:
Line 672  no_NOX:
          */           */
         leal    (PROC0_PTP1_OFF)(%esi),%ebx          leal    (PROC0_PTP1_OFF)(%esi),%ebx
   
         /* Skip the first MB. */          /* Skip the area below the kernel text. */
         movl    $(KERNTEXTOFF - KERNBASE),%eax          movl    $(KERNTEXTOFF - KERNBASE),%ecx
         movl    %eax,%ecx          shrl    $PGSHIFT,%ecx
         shrl    $(PGSHIFT-2),%ecx       /* ((n >> PGSHIFT) << 2) for # PDEs */          fillkpt_blank
 #ifdef PAE  
         shll    $1,%ecx                 /* PDEs are twice larger with PAE */  
 #endif  
         addl    %ecx,%ebx  
   
         /* Map the kernel text RX. */          /* Map the kernel text RX. */
           movl    $(KERNTEXTOFF - KERNBASE),%eax  /* start of TEXT */
         movl    $RELOC(__rodata_start),%ecx          movl    $RELOC(__rodata_start),%ecx
         subl    %eax,%ecx          subl    %eax,%ecx
         shrl    $PGSHIFT,%ecx          shrl    $PGSHIFT,%ecx
Line 724  no_NOX:
Line 701  no_NOX:
         orl     $(PG_V|PG_KW),%eax          orl     $(PG_V|PG_KW),%eax
         fillkpt_nox          fillkpt_nox
   
         /* Map [SYMS]+[PRELOADED MODULES] RWX. */          /* Map [SYMS]+[PRELOADED MODULES] RW. */
         movl    $RELOC(__kernel_end),%eax          movl    $RELOC(__kernel_end),%eax
         movl    %esi,%ecx               /* start of BOOTSTRAP TABLES */          movl    %esi,%ecx               /* start of BOOTSTRAP TABLES */
         subl    %eax,%ecx          subl    %eax,%ecx
         shrl    $PGSHIFT,%ecx          shrl    $PGSHIFT,%ecx
         orl     $(PG_V|PG_KW),%eax          orl     $(PG_V|PG_KW),%eax
         fillkpt          fillkpt_nox
   
         /* Map the BOOTSTRAP TABLES RW. */          /* Map the BOOTSTRAP TABLES RW. */
         movl    %esi,%eax               /* start of BOOTSTRAP TABLES */          movl    %esi,%eax               /* start of BOOTSTRAP TABLES */
Line 739  no_NOX:
Line 716  no_NOX:
         orl     $(PG_V|PG_KW),%eax          orl     $(PG_V|PG_KW),%eax
         fillkpt_nox          fillkpt_nox
   
         /* We are on (4). Map ISA I/O mem (later atdevbase) RWX. */          /* We are on (4). Map ISA I/O MEM RW. */
         movl    $(IOM_BEGIN|PG_V|PG_KW/*|PG_N*/),%eax          movl    $IOM_BEGIN,%eax
         movl    $(IOM_SIZE>>PGSHIFT),%ecx          movl    $IOM_SIZE,%ecx  /* size of ISA I/O MEM */
         fillkpt          shrl    $PGSHIFT,%ecx
           orl     $(PG_V|PG_KW/*|PG_N*/),%eax
           fillkpt_nox
   
         /*          /*
          * Build L2 for identity mapping. Linked to L1.           * Build L2 for identity mapping. Linked to L1.
Line 760  no_NOX:
Line 739  no_NOX:
         movl    RELOC(nkptp)+1*4,%ecx          movl    RELOC(nkptp)+1*4,%ecx
         fillkpt          fillkpt
   
         /* Install a PDE recursively mapping page directory as a page table! */          /* Install recursive top level PDE */
         leal    (PROC0_PDIR_OFF + PDIR_SLOT_PTE * PDE_SIZE)(%esi),%ebx          leal    (PROC0_PDIR_OFF + PDIR_SLOT_PTE * PDE_SIZE)(%esi),%ebx
         leal    (PROC0_PDIR_OFF)(%esi),%eax          leal    (PROC0_PDIR_OFF)(%esi),%eax
         orl     $(PG_V|PG_KW),%eax          orl     $(PG_V|PG_KW),%eax
         movl    $PDP_SIZE,%ecx          movl    $PDP_SIZE,%ecx
         fillkpt          fillkpt_nox
   
 #ifdef PAE  #ifdef PAE
         /*          /*
Line 860  begin:
Line 839  begin:
         pushl   $0      /* init386() expects a 64 bits paddr_t with PAE */          pushl   $0      /* init386() expects a 64 bits paddr_t with PAE */
 #endif  #endif
         pushl   %eax          pushl   %eax
         call    _C_LABEL(init386)       /* wire 386 chip for unix operation */          call    _C_LABEL(init386)
         addl    $PDE_SIZE,%esp          /* pop paddr_t */          addl    $PDE_SIZE,%esp          /* pop paddr_t */
         addl    $NGDT*8,%esp            /* pop temporary gdt */          addl    $NGDT*8,%esp            /* pop temporary gdt */
   
 #ifdef SAFARI_FIFO_HACK  
         movb    $5,%al  
         movw    $0x37b,%dx  
         outb    %al,%dx  
         movw    $0x37f,%dx  
         inb     %dx,%al  
         movb    %al,%cl  
   
         orb     $1,%cl  
   
         movb    $5,%al  
         movw    $0x37b,%dx  
         outb    %al,%dx  
         movw    $0x37f,%dx  
         movb    %cl,%al  
         outb    %al,%dx  
 #endif /* SAFARI_FIFO_HACK */  
   
         call    _C_LABEL(main)          call    _C_LABEL(main)
 #else /* XEN */  #else /* XEN */
         /* First, reset the PSL. */          /* First, reset the PSL. */
Line 889  begin:
Line 850  begin:
         popfl          popfl
   
         cld          cld
         movl    %esp, %ebx              /* save start of available space */  
         movl    $_RELOC(tmpstk),%esp    /* bootstrap stack end location */          /*
            * Xen info:
            * - %esp -> stack, *theoretically* the last used page by Xen bootstrap
            */
           movl    %esp,%ebx
           movl    $_RELOC(tmpstk),%esp
   
         /* Clear BSS. */          /* Clear BSS. */
         xorl    %eax,%eax          xorl    %eax,%eax
         movl    $RELOC(__bss_start),%edi          movl    $RELOC(__bss_start),%edi
         movl    $RELOC(_end),%ecx          movl    $RELOC(_end),%ecx
         subl    %edi,%ecx          subl    %edi,%ecx
         rep stosb          rep
           stosb
   
         /* Copy the necessary stuff from start_info structure. */          /* Copy the necessary stuff from start_info structure. */
         /* We need to copy shared_info early, so that sti/cli work */          /* We need to copy shared_info early, so that sti/cli work */
         movl    $RELOC(start_info_union),%edi          movl    $RELOC(start_info_union),%edi
         movl    $128,%ecx          movl    $128,%ecx
         rep movsl          rep
           movsl
   
         /* Clear segment registers; always null in proc0. */          /* Clear segment registers. */
         xorl    %eax,%eax          xorl    %eax,%eax
         movw    %ax,%fs          movw    %ax,%fs
         movw    %ax,%gs          movw    %ax,%gs
         decl    %eax  
         movl    %eax,RELOC(cpuid_level)  
   
         xorl    %eax,%eax          xorl    %eax,%eax
         cpuid          cpuid
         movl    %eax,RELOC(cpuid_level)          movl    %eax,RELOC(cpuid_level)
   
         /*          /*
          * Use a temp page. We'll re- add it to uvm(9) once we're           * Use a temporary GDT page. We'll re-add it to uvm(9) once we're done
          * done using it.           * using it.
          */           */
         movl    $RELOC(tmpgdt), %eax          movl    $RELOC(tmpgdt),%eax
         pushl   %eax            /* start of temporary gdt */          pushl   %eax            /* start of temporary gdt */
         call    _C_LABEL(initgdt)          call    _C_LABEL(initgdt)
         addl    $4,%esp          addl    $4,%esp
   
         call    xen_pmap_bootstrap          call    xen_locore
   
         /*          /*
          * First avail returned by xen_pmap_bootstrap in %eax           * The first VA available is returned by xen_locore in %eax. We
            * use it as the UAREA, and set up the stack here.
          */           */
         movl    %eax, %esi;          movl    %eax,%esi
         movl    %esi, _C_LABEL(lwp0uarea)          movl    %esi,_C_LABEL(lwp0uarea)
   
         /* Set up bootstrap stack. */  
         leal    (USPACE-FRAMESIZE)(%eax),%esp          leal    (USPACE-FRAMESIZE)(%eax),%esp
         xorl    %ebp,%ebp               /* mark end of frames */          xorl    %ebp,%ebp               /* mark end of frames */
   
         addl    $USPACE, %esi          /* Set first_avail after the DUMMY PAGE (see xen_locore). */
         subl    $KERNBASE, %esi         /* init386 wants a physical address */          addl    $(USPACE+PAGE_SIZE),%esi
           subl    $KERNBASE,%esi          /* init386 wants a physical address */
   
 #ifdef PAE  #ifdef PAE
         pushl   $0      /* init386() expects a 64 bits paddr_t with PAE */          pushl   $0      /* init386() expects a 64 bits paddr_t with PAE */
 #endif  #endif
         pushl   %esi          pushl   %esi
         call    _C_LABEL(init386)       /* wire 386 chip for unix operation */          call    _C_LABEL(init386)
         addl    $PDE_SIZE,%esp          /* pop paddr_t */          addl    $PDE_SIZE,%esp          /* pop paddr_t */
         call    _C_LABEL(main)          call    _C_LABEL(main)
 #endif /* XEN */  #endif /* XEN */
Line 1084  END(dumpsys)
Line 1050  END(dumpsys)
   
 /*  /*
  * struct lwp *cpu_switchto(struct lwp *oldlwp, struct lwp *newlwp,   * struct lwp *cpu_switchto(struct lwp *oldlwp, struct lwp *newlwp,
  *                          bool returning)   *     bool returning)
  *   *
  *      1. if (oldlwp != NULL), save its context.   *      1. if (oldlwp != NULL), save its context.
  *      2. then, restore context of newlwp.   *      2. then, restore context of newlwp.
Line 1112  ENTRY(cpu_switchto)
Line 1078  ENTRY(cpu_switchto)
         movl    16(%esp),%esi           /* oldlwp */          movl    16(%esp),%esi           /* oldlwp */
         movl    20(%esp),%edi           /* newlwp */          movl    20(%esp),%edi           /* newlwp */
         movl    24(%esp),%edx           /* returning */          movl    24(%esp),%edx           /* returning */
         testl   %esi,%esi  
         jz      1f          testl   %esi,%esi               /* oldlwp = NULL ? */
           jz      skip_save
   
         /* Save old context. */          /* Save old context. */
         movl    L_PCB(%esi),%eax          movl    L_PCB(%esi),%eax
         movl    %esp,PCB_ESP(%eax)          movl    %esp,PCB_ESP(%eax)
         movl    %ebp,PCB_EBP(%eax)          movl    %ebp,PCB_EBP(%eax)
   skip_save:
   
         /* Switch to newlwp's stack. */          /* Switch to newlwp's stack. */
 1:      movl    L_PCB(%edi),%ebx          movl    L_PCB(%edi),%ebx
         movl    PCB_EBP(%ebx),%ebp          movl    PCB_EBP(%ebx),%ebp
         movl    PCB_ESP(%ebx),%esp          movl    PCB_ESP(%ebx),%esp
   
Line 1134  ENTRY(cpu_switchto)
Line 1102  ENTRY(cpu_switchto)
   
         /* Skip the rest if returning to a pinned LWP. */          /* Skip the rest if returning to a pinned LWP. */
         testl   %edx,%edx          testl   %edx,%edx
         jnz     4f          jnz     switch_return
   
           /* Switch ring0 stack */
 #ifdef XEN  #ifdef XEN
         pushl   %edi          pushl   %edi
         call    _C_LABEL(i386_switch_context)          call    _C_LABEL(i386_switch_context)
         addl    $4,%esp          addl    $4,%esp
 #else /* !XEN */  #else
         /* Switch ring0 esp */  
         movl    PCB_ESP0(%ebx),%eax          movl    PCB_ESP0(%ebx),%eax
         movl    %eax,CPUVAR(ESP0)          movl    %eax,CPUVAR(ESP0)
 #endif /* !XEN */  #endif
   
         /* Don't bother with the rest if switching to a system process. */          /* Don't bother with the rest if switching to a system process. */
         testl   $LW_SYSTEM,L_FLAG(%edi)          testl   $LW_SYSTEM,L_FLAG(%edi)
         jnz     4f          jnz     switch_return
   
 #ifndef XEN  #ifndef XEN
         /* Restore thread-private %fs/%gs descriptors. */          /* Restore thread-private %fs/%gs descriptors. */
         movl    CPUVAR(GDT),%ecx          movl    CPUVAR(GDT),%ecx
         movl    PCB_FSD(%ebx), %eax          movl    PCB_FSD(%ebx),%eax
         movl    PCB_FSD+4(%ebx), %edx          movl    PCB_FSD+4(%ebx),%edx
         movl    %eax, (GUFS_SEL*8)(%ecx)          movl    %eax,(GUFS_SEL*8)(%ecx)
         movl    %edx, (GUFS_SEL*8+4)(%ecx)          movl    %edx,(GUFS_SEL*8+4)(%ecx)
         movl    PCB_GSD(%ebx), %eax          movl    PCB_GSD(%ebx),%eax
         movl    PCB_GSD+4(%ebx), %edx          movl    PCB_GSD+4(%ebx),%edx
         movl    %eax, (GUGS_SEL*8)(%ecx)          movl    %eax,(GUGS_SEL*8)(%ecx)
         movl    %edx, (GUGS_SEL*8+4)(%ecx)          movl    %edx,(GUGS_SEL*8+4)(%ecx)
 #endif /* !XEN */  #endif /* !XEN */
   
         /* Switch I/O bitmap */          /* Switch I/O bitmap */
Line 1173  ENTRY(cpu_switchto)
Line 1141  ENTRY(cpu_switchto)
         /* Is this process using RAS (restartable atomic sequences)? */          /* Is this process using RAS (restartable atomic sequences)? */
         movl    L_PROC(%edi),%eax          movl    L_PROC(%edi),%eax
         cmpl    $0,P_RASLIST(%eax)          cmpl    $0,P_RASLIST(%eax)
         jne     5f          je      no_RAS
   
           /* Handle restartable atomic sequences (RAS). */
           movl    L_MD_REGS(%edi),%ecx
           pushl   TF_EIP(%ecx)
           pushl   %eax
           call    _C_LABEL(ras_lookup)
           addl    $8,%esp
           cmpl    $-1,%eax
           je      no_RAS
           movl    L_MD_REGS(%edi),%ecx
           movl    %eax,TF_EIP(%ecx)
   no_RAS:
   
         /*          /*
          * Restore cr0 (including FPU state).  Raise the IPL to IPL_HIGH.           * Restore cr0 (including FPU state).  Raise the IPL to IPL_HIGH.
          * FPU IPIs can alter the LWP's saved cr0.  Dropping the priority           * FPU IPIs can alter the LWP's saved cr0.  Dropping the priority
          * is deferred until mi_switch(), when cpu_switchto() returns.           * is deferred until mi_switch(), when cpu_switchto() returns.
          */           */
 2:  
 #ifdef XEN  #ifdef XEN
         pushl   %edi          pushl   %edi
         call    _C_LABEL(i386_tls_switch)          call    _C_LABEL(i386_tls_switch)
Line 1195  ENTRY(cpu_switchto)
Line 1174  ENTRY(cpu_switchto)
          * set CR0_TS so we'll trap rather than reuse bogus state.           * set CR0_TS so we'll trap rather than reuse bogus state.
          */           */
         cmpl    CPUVAR(FPCURLWP),%edi          cmpl    CPUVAR(FPCURLWP),%edi
         je      3f          je      skip_TS
         orl     $CR0_TS,%ecx          orl     $CR0_TS,%ecx
   skip_TS:
   
         /* Reloading CR0 is very expensive - avoid if possible. */          /* Reloading CR0 is very expensive - avoid if possible. */
 3:      cmpl    %edx,%ecx          cmpl    %edx,%ecx
         je      4f          je      switch_return
         movl    %ecx,%cr0          movl    %ecx,%cr0
 #endif /* !XEN */  #endif /* !XEN */
   
   switch_return:
         /* Return to the new LWP, returning 'oldlwp' in %eax. */          /* Return to the new LWP, returning 'oldlwp' in %eax. */
 4:      movl    %esi,%eax          movl    %esi,%eax
         popl    %edi          popl    %edi
         popl    %esi          popl    %esi
         popl    %ebx          popl    %ebx
         ret          ret
   
         /* Check for restartable atomic sequences (RAS). */  
 5:      movl    L_MD_REGS(%edi),%ecx  
         pushl   TF_EIP(%ecx)  
         pushl   %eax  
         call    _C_LABEL(ras_lookup)  
         addl    $8,%esp  
         cmpl    $-1,%eax  
         je      2b  
         movl    L_MD_REGS(%edi),%ecx  
         movl    %eax,TF_EIP(%ecx)  
         jmp     2b  
   
 .Lcopy_iobitmap:  .Lcopy_iobitmap:
         /* Copy I/O bitmap. */          /* Copy I/O bitmap. */
         incl    _C_LABEL(pmap_iobmp_evcnt)+EV_COUNT          incl    _C_LABEL(pmap_iobmp_evcnt)+EV_COUNT
Line 1253  ENTRY(savectx)
Line 1222  ENTRY(savectx)
 END(savectx)  END(savectx)
   
 /*  /*
  * osyscall()  
  *  
  * Old call gate entry for syscall  
  */  
 IDTVEC(osyscall)  
 #ifndef XEN  
         /* XXX we are in trouble! interrupts be off here. */  
         cli                     /* must be first instruction */  
 #endif  
         pushfl                  /* set eflags in trap frame */  
         popl    8(%esp)  
         orl     $PSL_I,8(%esp)  /* re-enable ints on return to user */  
         pushl   $7              /* size of instruction for restart */  
         jmp     syscall1  
 IDTVEC_END(osyscall)  
   
 /*  
  * syscall()   * syscall()
  *   *
  * Trap gate entry for syscall   * Trap gate entry for syscall
  */   */
 IDTVEC(syscall)  IDTVEC(syscall)
         pushl   $2              /* size of instruction for restart */          pushl   $2              /* size of instruction for restart */
 syscall1:  
         pushl   $T_ASTFLT       /* trap # for doing ASTs */          pushl   $T_ASTFLT       /* trap # for doing ASTs */
         INTRENTRY          INTRENTRY
         STI(%eax)          STI(%eax)
Line 1363  syscall1:
Line 1314  syscall1:
         jmp     .Lsyscall_checkast      /* re-check ASTs */          jmp     .Lsyscall_checkast      /* re-check ASTs */
 IDTVEC_END(syscall)  IDTVEC_END(syscall)
   
 IDTVEC(svr4_fasttrap)  
         pushl   $2              /* size of instruction for restart */  
         pushl   $T_ASTFLT       /* trap # for doing ASTs */  
         INTRENTRY  
         STI(%eax)  
         pushl   $RW_READER  
         pushl   $_C_LABEL(svr4_fasttrap_lock)  
         call    _C_LABEL(rw_enter)  
         addl    $8,%esp  
         call    *_C_LABEL(svr4_fasttrap_vec)  
         pushl   $_C_LABEL(svr4_fasttrap_lock)  
         call    _C_LABEL(rw_exit)  
         addl    $4,%esp  
 2:      /* Check for ASTs on exit to user mode. */  
         cli  
         CHECK_ASTPENDING(%eax)  
         je      1f  
         /* Always returning to user mode here. */  
         CLEAR_ASTPENDING(%eax)  
         sti  
         /* Pushed T_ASTFLT into tf_trapno on entry. */  
         pushl   %esp  
         call    _C_LABEL(trap)  
         addl    $4,%esp  
         jmp     2b  
 1:      CHECK_DEFERRED_SWITCH  
         jnz     9f  
         INTRFASTEXIT  
 9:      sti  
         call    _C_LABEL(pmap_load)  
         cli  
         jmp     2b  
   
 /*  /*
  * int npx586bug1(int a, int b)   * int npx586bug1(int a, int b)
  * Used when checking for the FDIV bug on first generations pentiums.   * Used when checking for the FDIV bug on first generations pentiums.

Legend:
Removed from v.1.125  
changed lines
  Added in v.1.150

CVSweb <webmaster@jp.NetBSD.org>