[BACK]Return to ip_input.c CVS log [TXT][DIR] Up to [cvs.NetBSD.org] / src / sys / netinet

Please note that diffs are not public domain; they are subject to the copyright notices on the relevant files.

Diff for /src/sys/netinet/ip_input.c between version 1.268.2.3 and 1.302.2.2

version 1.268.2.3, 2009/07/18 14:53:25 version 1.302.2.2, 2013/06/23 06:20:25
Line 104  __KERNEL_RCSID(0, "$NetBSD$");
Line 104  __KERNEL_RCSID(0, "$NetBSD$");
   
 #include <sys/param.h>  #include <sys/param.h>
 #include <sys/systm.h>  #include <sys/systm.h>
 #include <sys/malloc.h>  
 #include <sys/mbuf.h>  #include <sys/mbuf.h>
 #include <sys/domain.h>  #include <sys/domain.h>
 #include <sys/protosw.h>  #include <sys/protosw.h>
Line 140  __KERNEL_RCSID(0, "$NetBSD$");
Line 139  __KERNEL_RCSID(0, "$NetBSD$");
 #ifdef MROUTING  #ifdef MROUTING
 #include <netinet/ip_mroute.h>  #include <netinet/ip_mroute.h>
 #endif  #endif
   #include <netinet/portalgo.h>
   
 #ifdef IPSEC  #ifdef IPSEC
 #include <netinet6/ipsec.h>  
 #include <netinet6/ipsec_private.h>  
 #include <netkey/key.h>  
 #endif  
 #ifdef FAST_IPSEC  
 #include <netipsec/ipsec.h>  #include <netipsec/ipsec.h>
 #include <netipsec/key.h>  #endif
 #endif  /* FAST_IPSEC*/  
   
 #ifndef IPFORWARDING  #ifndef IPFORWARDING
 #ifdef GATEWAY  #ifdef GATEWAY
Line 222  int ip_checkinterface = 0;
Line 216  int ip_checkinterface = 0;
   
 struct rttimer_queue *ip_mtudisc_timeout_q = NULL;  struct rttimer_queue *ip_mtudisc_timeout_q = NULL;
   
 int     ipqmaxlen = IFQ_MAXLEN;  
 u_long  in_ifaddrhash;                          /* size of hash table - 1 */  u_long  in_ifaddrhash;                          /* size of hash table - 1 */
 int     in_ifaddrentries;                       /* total number of addrs */  int     in_ifaddrentries;                       /* total number of addrs */
 struct in_ifaddrhead in_ifaddrhead;  struct in_ifaddrhead in_ifaddrhead;
Line 231  u_long in_multihash;    /* size of hash 
Line 224  u_long in_multihash;    /* size of hash 
 int     in_multientries;                        /* total number of addrs */  int     in_multientries;                        /* total number of addrs */
 struct  in_multihashhead *in_multihashtbl;  struct  in_multihashhead *in_multihashtbl;
 struct  ifqueue ipintrq;  struct  ifqueue ipintrq;
   
   ipid_state_t *          ip_ids;
 uint16_t ip_id;  uint16_t ip_id;
   
 percpu_t *ipstat_percpu;  percpu_t *ipstat_percpu;
Line 239  percpu_t *ipstat_percpu;
Line 234  percpu_t *ipstat_percpu;
 struct pfil_head inet_pfil_hook;  struct pfil_head inet_pfil_hook;
 #endif  #endif
   
 /*  
  * Cached copy of nmbclusters. If nbclusters is different,  
  * recalculate IP parameters derived from nmbclusters.  
  */  
 static int      ip_nmbclusters;                 /* copy of nmbclusters */  
 static void     ip_nmbclusters_changed(void);   /* recalc limits */  
   
 #define CHECK_NMBCLUSTER_PARAMS()                               \  
 do {                                                            \  
         if (__predict_false(ip_nmbclusters != nmbclusters))     \  
                 ip_nmbclusters_changed();                       \  
 } while (/*CONSTCOND*/0)  
   
 /* IP datagram reassembly queues (hashed) */  
 #define IPREASS_NHASH_LOG2      6  
 #define IPREASS_NHASH           (1 << IPREASS_NHASH_LOG2)  
 #define IPREASS_HMASK           (IPREASS_NHASH - 1)  
 #define IPREASS_HASH(x,y) \  
         (((((x) & 0xF) | ((((x) >> 8) & 0xF) << 4)) ^ (y)) & IPREASS_HMASK)  
 struct ipqhead ipq[IPREASS_NHASH];  
 int     ipq_locked;  
 static int      ip_nfragpackets;        /* packets in reass queue */  
 static int      ip_nfrags;              /* total fragments in reass queues */  
   
 int     ip_maxfragpackets = 200;        /* limit on packets. XXX sysctl */  
 int     ip_maxfrags;                    /* limit on fragments. XXX sysctl */  
   
   
 /*  
  * Additive-Increase/Multiplicative-Decrease (AIMD) strategy for  
  * IP reassembly queue buffer managment.  
  *  
  * We keep a count of total IP fragments (NB: not fragmented packets!)  
  * awaiting reassembly (ip_nfrags) and a limit (ip_maxfrags) on fragments.  
  * If ip_nfrags exceeds ip_maxfrags the limit, we drop half the  
  * total fragments in  reassembly queues.This AIMD policy avoids  
  * repeatedly deleting single packets under heavy fragmentation load  
  * (e.g., from lossy NFS peers).  
  */  
 static u_int    ip_reass_ttl_decr(u_int ticks);  
 static void     ip_reass_drophalf(void);  
   
   
 static inline int ipq_lock_try(void);  
 static inline void ipq_unlock(void);  
   
 static inline int  
 ipq_lock_try(void)  
 {  
         int s;  
   
         /*  
          * Use splvm() -- we're blocking things that would cause  
          * mbuf allocation.  
          */  
         s = splvm();  
         if (ipq_locked) {  
                 splx(s);  
                 return (0);  
         }  
         ipq_locked = 1;  
         splx(s);  
         return (1);  
 }  
   
 static inline void  
 ipq_unlock(void)  
 {  
         int s;  
   
         s = splvm();  
         ipq_locked = 0;  
         splx(s);  
 }  
   
 #ifdef DIAGNOSTIC  
 #define IPQ_LOCK()                                                      \  
 do {                                                                    \  
         if (ipq_lock_try() == 0) {                                      \  
                 printf("%s:%d: ipq already locked\n", __FILE__, __LINE__); \  
                 panic("ipq_lock");                                      \  
         }                                                               \  
 } while (/*CONSTCOND*/ 0)  
 #define IPQ_LOCK_CHECK()                                                \  
 do {                                                                    \  
         if (ipq_locked == 0) {                                          \  
                 printf("%s:%d: ipq lock not held\n", __FILE__, __LINE__); \  
                 panic("ipq lock check");                                \  
         }                                                               \  
 } while (/*CONSTCOND*/ 0)  
 #else  
 #define IPQ_LOCK()              (void) ipq_lock_try()  
 #define IPQ_LOCK_CHECK()        /* nothing */  
 #endif  
   
 #define IPQ_UNLOCK()            ipq_unlock()  
   
 struct pool inmulti_pool;  struct pool inmulti_pool;
 struct pool ipqent_pool;  
   
 #ifdef INET_CSUM_COUNTERS  #ifdef INET_CSUM_COUNTERS
 #include <sys/device.h>  #include <sys/device.h>
Line 376  static struct ip_srcrt {
Line 273  static struct ip_srcrt {
         struct  in_addr route[MAX_IPOPTLEN/sizeof(struct in_addr)];          struct  in_addr route[MAX_IPOPTLEN/sizeof(struct in_addr)];
 } ip_srcrt;  } ip_srcrt;
   
   static int ip_drainwanted;
   
 static void save_rte(u_char *, struct in_addr);  static void save_rte(u_char *, struct in_addr);
   
 #ifdef MBUFTRACE  #ifdef MBUFTRACE
Line 383  struct mowner ip_rx_mowner = MOWNER_INIT
Line 282  struct mowner ip_rx_mowner = MOWNER_INIT
 struct mowner ip_tx_mowner = MOWNER_INIT("internet", "tx");  struct mowner ip_tx_mowner = MOWNER_INIT("internet", "tx");
 #endif  #endif
   
 /*  static void sysctl_net_inet_ip_setup(struct sysctllog **);
  * Compute IP limits derived from the value of nmbclusters.  
  */  
 static void  
 ip_nmbclusters_changed(void)  
 {  
         ip_maxfrags = nmbclusters / 4;  
         ip_nmbclusters =  nmbclusters;  
 }  
   
 /*  /*
  * IP initialization: fill in IP protocol switch table.   * IP initialization: fill in IP protocol switch table.
Line 403  ip_init(void)
Line 294  ip_init(void)
         const struct protosw *pr;          const struct protosw *pr;
         int i;          int i;
   
           sysctl_net_inet_ip_setup(NULL);
   
         pool_init(&inmulti_pool, sizeof(struct in_multi), 0, 0, 0, "inmltpl",          pool_init(&inmulti_pool, sizeof(struct in_multi), 0, 0, 0, "inmltpl",
             NULL, IPL_SOFTNET);              NULL, IPL_SOFTNET);
         pool_init(&ipqent_pool, sizeof(struct ipqent), 0, 0, 0, "ipqepl",  
             NULL, IPL_VM);  
   
         pr = pffindproto(PF_INET, IPPROTO_RAW, SOCK_RAW);          pr = pffindproto(PF_INET, IPPROTO_RAW, SOCK_RAW);
         if (pr == 0)          if (pr == 0)
Line 419  ip_init(void)
Line 310  ip_init(void)
                     pr->pr_protocol && pr->pr_protocol != IPPROTO_RAW)                      pr->pr_protocol && pr->pr_protocol != IPPROTO_RAW)
                         ip_protox[pr->pr_protocol] = pr - inetsw;                          ip_protox[pr->pr_protocol] = pr - inetsw;
   
         for (i = 0; i < IPREASS_NHASH; i++)          ip_reass_init();
                 LIST_INIT(&ipq[i]);  
   
         ip_initid();          ip_ids = ip_id_init();
         ip_id = time_second & 0xfffff;          ip_id = time_second & 0xfffff;
   
         ipintrq.ifq_maxlen = ipqmaxlen;          ipintrq.ifq_maxlen = IFQ_MAXLEN;
         ip_nmbclusters_changed();  
   
         TAILQ_INIT(&in_ifaddrhead);          TAILQ_INIT(&in_ifaddrhead);
         in_ifaddrhashtbl = hashinit(IN_IFADDR_HASH_SIZE, HASH_LIST, true,          in_ifaddrhashtbl = hashinit(IN_IFADDR_HASH_SIZE, HASH_LIST, true,
Line 470  ipintr(void)
Line 359  ipintr(void)
 {  {
         int s;          int s;
         struct mbuf *m;          struct mbuf *m;
           struct ifqueue lcl_intrq;
   
           memset(&lcl_intrq, 0, sizeof(lcl_intrq));
   
         mutex_enter(softnet_lock);          mutex_enter(softnet_lock);
         KERNEL_LOCK(1, NULL);          KERNEL_LOCK(1, NULL);
         while (!IF_IS_EMPTY(&ipintrq)) {          if (!IF_IS_EMPTY(&ipintrq)) {
                 s = splnet();                  s = splnet();
                 IF_DEQUEUE(&ipintrq, m);  
                   /* Take existing queue onto stack */
                   lcl_intrq = ipintrq;
   
                   /* Zero out global queue, preserving maxlen and drops */
                   ipintrq.ifq_head = NULL;
                   ipintrq.ifq_tail = NULL;
                   ipintrq.ifq_len = 0;
                   ipintrq.ifq_maxlen = lcl_intrq.ifq_maxlen;
                   ipintrq.ifq_drops = lcl_intrq.ifq_drops;
   
                 splx(s);                  splx(s);
           }
           KERNEL_UNLOCK_ONE(NULL);
           while (!IF_IS_EMPTY(&lcl_intrq)) {
                   IF_DEQUEUE(&lcl_intrq, m);
                 if (m == NULL)                  if (m == NULL)
                         break;                          break;
                 ip_input(m);                  ip_input(m);
         }          }
         KERNEL_UNLOCK_ONE(NULL);  
         mutex_exit(softnet_lock);          mutex_exit(softnet_lock);
 }  }
   
Line 493  void
Line 398  void
 ip_input(struct mbuf *m)  ip_input(struct mbuf *m)
 {  {
         struct ip *ip = NULL;          struct ip *ip = NULL;
         struct ipq *fp;  
         struct in_ifaddr *ia;          struct in_ifaddr *ia;
         struct ifaddr *ifa;          struct ifaddr *ifa;
         struct ipqent *ipqe;          int hlen = 0, len;
         int hlen = 0, mff, len;  
         int downmatch;          int downmatch;
         int checkif;          int checkif;
         int srcrt = 0;          int srcrt = 0;
         int s;  
         u_int hash;  
 #ifdef FAST_IPSEC  
         struct m_tag *mtag;  
         struct tdb_ident *tdbi;  
         struct secpolicy *sp;  
         int error;  
 #endif /* FAST_IPSEC */  
   
         MCLAIM(m, &ip_rx_mowner);          MCLAIM(m, &ip_rx_mowner);
 #ifdef  DIAGNOSTIC          KASSERT((m->m_flags & M_PKTHDR) != 0);
         if ((m->m_flags & M_PKTHDR) == 0)  
                 panic("ipintr no HDR");  
 #endif  
   
         /*          /*
          * If no IP addresses have been set yet but the interfaces           * If no IP addresses have been set yet but the interfaces
Line 553  ip_input(struct mbuf *m)
Line 445  ip_input(struct mbuf *m)
                 goto bad;                  goto bad;
         }          }
         if (hlen > m->m_len) {          if (hlen > m->m_len) {
                 if ((m = m_pullup(m, hlen)) == 0) {                  if ((m = m_pullup(m, hlen)) == NULL) {
                         IP_STATINC(IP_STAT_BADHLEN);                          IP_STATINC(IP_STAT_BADHLEN);
                         return;                          return;
                 }                  }
Line 633  ip_input(struct mbuf *m)
Line 525  ip_input(struct mbuf *m)
                         m_adj(m, len - m->m_pkthdr.len);                          m_adj(m, len - m->m_pkthdr.len);
         }          }
   
 #if defined(IPSEC)  
         /* ipflow (IP fast forwarding) is not compatible with IPsec. */  
         m->m_flags &= ~M_CANFASTFWD;  
 #else  
         /*          /*
          * Assume that we can create a fast-forward IP flow entry           * Assume that we can create a fast-forward IP flow entry
          * based on this packet.           * based on this packet.
          */           */
         m->m_flags |= M_CANFASTFWD;          m->m_flags |= M_CANFASTFWD;
 #endif  
   
 #ifdef PFIL_HOOKS  #ifdef PFIL_HOOKS
         /*          /*
Line 656  ip_input(struct mbuf *m)
Line 543  ip_input(struct mbuf *m)
          * let ipfilter look at packet on the wire,           * let ipfilter look at packet on the wire,
          * not the decapsulated packet.           * not the decapsulated packet.
          */           */
 #ifdef IPSEC  #if defined(IPSEC)
         if (!ipsec_getnhist(m))  
 #elif defined(FAST_IPSEC)  
         if (!ipsec_indone(m))          if (!ipsec_indone(m))
 #else  #else
         if (1)          if (1)
Line 841  ip_input(struct mbuf *m)
Line 726  ip_input(struct mbuf *m)
                         return;                          return;
                 }                  }
 #ifdef IPSEC  #ifdef IPSEC
                 if (ipsec4_in_reject(m, NULL)) {                  /* Perform IPsec, if any. */
                         IPSEC_STATINC(IPSEC_STAT_IN_POLVIO);                  if (ipsec4_input(m, IP_FORWARDING | (ip_directedbcast ?
                       IP_ALLOWBROADCAST : 0)) != 0) {
                         goto bad;                          goto bad;
                 }                  }
 #endif  #endif
 #ifdef FAST_IPSEC  
                 mtag = m_tag_find(m, PACKET_TAG_IPSEC_IN_DONE, NULL);  
                 s = splsoftnet();  
                 if (mtag != NULL) {  
                         tdbi = (struct tdb_ident *)(mtag + 1);  
                         sp = ipsec_getpolicy(tdbi, IPSEC_DIR_INBOUND);  
                 } else {  
                         sp = ipsec_getpolicybyaddr(m, IPSEC_DIR_INBOUND,  
                                                    IP_FORWARDING, &error);  
                 }  
                 if (sp == NULL) {       /* NB: can happen if error */  
                         splx(s);  
                         /*XXX error stat???*/  
                         DPRINTF(("ip_input: no SP for forwarding\n"));  /*XXX*/  
                         goto bad;  
                 }  
   
                 /*  
                  * Check security policy against packet attributes.  
                  */  
                 error = ipsec_in_reject(sp, m);  
                 KEY_FREESP(&sp);  
                 splx(s);  
                 if (error) {  
                         IP_STATINC(IP_STAT_CANTFORWARD);  
                         goto bad;  
                 }  
   
                 /*  
                  * Peek at the outbound SP for this packet to determine if  
                  * it's a Fast Forward candidate.  
                  */  
                 mtag = m_tag_find(m, PACKET_TAG_IPSEC_PENDING_TDB, NULL);  
                 if (mtag != NULL)  
                         m->m_flags &= ~M_CANFASTFWD;  
                 else {  
                         s = splsoftnet();  
                         sp = ipsec4_checkpolicy(m, IPSEC_DIR_OUTBOUND,  
                             (IP_FORWARDING |  
                              (ip_directedbcast ? IP_ALLOWBROADCAST : 0)),  
                             &error, NULL);  
                         if (sp != NULL) {  
                                 m->m_flags &= ~M_CANFASTFWD;  
                                 KEY_FREESP(&sp);  
                         }  
                         splx(s);  
                 }  
 #endif  /* FAST_IPSEC */  
   
                 ip_forward(m, srcrt);                  ip_forward(m, srcrt);
         }          }
         return;          return;
Line 902  ip_input(struct mbuf *m)
Line 739  ip_input(struct mbuf *m)
 ours:  ours:
         /*          /*
          * If offset or IP_MF are set, must reassemble.           * If offset or IP_MF are set, must reassemble.
          * Otherwise, nothing need be done.  
          * (We could look in the reassembly queue to see  
          * if the packet was previously fragmented,  
          * but it's not worth the time; just let them time out.)  
          */           */
         if (ip->ip_off & ~htons(IP_DF|IP_RF)) {          if (ip->ip_off & ~htons(IP_DF|IP_RF)) {
                 uint16_t off;  
                 /*                  /*
                  * Prevent TCP blind data attacks by not allowing non-initial                   * Pass to IP reassembly mechanism.
                  * fragments to start at less than 68 bytes (minimal fragment  
                  * size) and making sure the first fragment is at least 68  
                  * bytes.  
                  */                   */
                 off = (ntohs(ip->ip_off) & IP_OFFMASK) << 3;                  if (ip_reass_packet(&m, ip) != 0) {
                 if ((off > 0 ? off + hlen : len) < IP_MINFRAGSIZE - 1) {                          /* Failed; invalid fragment(s) or packet. */
                         IP_STATINC(IP_STAT_BADFRAGS);  
                         goto bad;                          goto bad;
                 }                  }
                 /*                  if (m == NULL) {
                  * Look for queue of fragments                          /* More fragments should come; silently return. */
                  * of this datagram.                          return;
                  */  
                 IPQ_LOCK();  
                 hash = IPREASS_HASH(ip->ip_src.s_addr, ip->ip_id);  
                 LIST_FOREACH(fp, &ipq[hash], ipq_q) {  
                         if (ip->ip_id == fp->ipq_id &&  
                             in_hosteq(ip->ip_src, fp->ipq_src) &&  
                             in_hosteq(ip->ip_dst, fp->ipq_dst) &&  
                             ip->ip_p == fp->ipq_p) {  
                                 /*  
                                  * Make sure the TOS is matches previous  
                                  * fragments.  
                                  */  
                                 if (ip->ip_tos != fp->ipq_tos) {  
                                         IP_STATINC(IP_STAT_BADFRAGS);  
                                         IPQ_UNLOCK();  
                                         goto bad;  
                                 }  
                                 goto found;  
                         }  
                 }  
                 fp = 0;  
 found:  
   
                 /*  
                  * Adjust ip_len to not reflect header,  
                  * set ipqe_mff if more fragments are expected,  
                  * convert offset of this to bytes.  
                  */  
                 ip->ip_len = htons(ntohs(ip->ip_len) - hlen);  
                 mff = (ip->ip_off & htons(IP_MF)) != 0;  
                 if (mff) {  
                         /*  
                          * Make sure that fragments have a data length  
                          * that's a non-zero multiple of 8 bytes.  
                          */  
                         if (ntohs(ip->ip_len) == 0 ||  
                             (ntohs(ip->ip_len) & 0x7) != 0) {  
                                 IP_STATINC(IP_STAT_BADFRAGS);  
                                 IPQ_UNLOCK();  
                                 goto bad;  
                         }  
                 }                  }
                 ip->ip_off = htons((ntohs(ip->ip_off) & IP_OFFMASK) << 3);  
   
                 /*                  /*
                  * If datagram marked as having more fragments                   * Reassembly is done, we have the final packet.
                  * or if this is not the first fragment,                   * Updated cached data in local variable(s).
                  * attempt reassembly; if it succeeds, proceed.  
                  */                   */
                 if (mff || ip->ip_off != htons(0)) {                  ip = mtod(m, struct ip *);
                         IP_STATINC(IP_STAT_FRAGMENTS);                  hlen = ip->ip_hl << 2;
                         s = splvm();  
                         ipqe = pool_get(&ipqent_pool, PR_NOWAIT);  
                         splx(s);  
                         if (ipqe == NULL) {  
                                 IP_STATINC(IP_STAT_RCVMEMDROP);  
                                 IPQ_UNLOCK();  
                                 goto bad;  
                         }  
                         ipqe->ipqe_mff = mff;  
                         ipqe->ipqe_m = m;  
                         ipqe->ipqe_ip = ip;  
                         m = ip_reass(ipqe, fp, &ipq[hash]);  
                         if (m == 0) {  
                                 IPQ_UNLOCK();  
                                 return;  
                         }  
                         IP_STATINC(IP_STAT_REASSEMBLED);  
                         ip = mtod(m, struct ip *);  
                         hlen = ip->ip_hl << 2;  
                         ip->ip_len = htons(ntohs(ip->ip_len) + hlen);  
                 } else  
                         if (fp)  
                                 ip_freef(fp);  
                 IPQ_UNLOCK();  
         }          }
   
 #if defined(IPSEC)  #ifdef IPSEC
         /*  
          * enforce IPsec policy checking if we are seeing last header.  
          * note that we do not visit this with protocols with pcb layer  
          * code - like udp/tcp/raw ip.  
          */  
         if ((inetsw[ip_protox[ip->ip_p]].pr_flags & PR_LASTHDR) != 0 &&  
             ipsec4_in_reject(m, NULL)) {  
                 IPSEC_STATINC(IPSEC_STAT_IN_POLVIO);  
                 goto bad;  
         }  
 #endif  
 #ifdef FAST_IPSEC  
         /*          /*
          * enforce IPsec policy checking if we are seeing last header.           * Enforce IPsec policy checking if we are seeing last header.
          * note that we do not visit this with protocols with pcb layer           * Note that we do not visit this with protocols with PCB layer
          * code - like udp/tcp/raw ip.           * code - like UDP/TCP/raw IP.
          */           */
         if ((inetsw[ip_protox[ip->ip_p]].pr_flags & PR_LASTHDR) != 0) {          if ((inetsw[ip_protox[ip->ip_p]].pr_flags & PR_LASTHDR) != 0) {
                 /*                  if (ipsec4_input(m, 0) != 0) {
                  * Check if the packet has already had IPsec processing  
                  * done.  If so, then just pass it along.  This tag gets  
                  * set during AH, ESP, etc. input handling, before the  
                  * packet is returned to the ip input queue for delivery.  
                  */  
                 mtag = m_tag_find(m, PACKET_TAG_IPSEC_IN_DONE, NULL);  
                 s = splsoftnet();  
                 if (mtag != NULL) {  
                         tdbi = (struct tdb_ident *)(mtag + 1);  
                         sp = ipsec_getpolicy(tdbi, IPSEC_DIR_INBOUND);  
                 } else {  
                         sp = ipsec_getpolicybyaddr(m, IPSEC_DIR_INBOUND,  
                                                    IP_FORWARDING, &error);  
                 }  
                 if (sp != NULL) {  
                         /*  
                          * Check security policy against packet attributes.  
                          */  
                         error = ipsec_in_reject(sp, m);  
                         KEY_FREESP(&sp);  
                 } else {  
                         /* XXX error stat??? */  
                         error = EINVAL;  
 DPRINTF(("ip_input: no SP, packet discarded\n"));/*XXX*/  
                 }  
                 splx(s);  
                 if (error)  
                         goto bad;                          goto bad;
                   }
         }          }
 #endif /* FAST_IPSEC */  #endif
   
         /*          /*
          * Switch out to protocol's input routine.           * Switch out to protocol's input routine.
Line 1075  badcsum:
Line 797  badcsum:
 }  }
   
 /*  /*
  * Take incoming datagram fragment and try to   * IP timer processing.
  * reassemble it into whole datagram.  If a chain for  
  * reassembly of this datagram already exists, then it  
  * is given as fp; otherwise have to make a chain.  
  */  
 struct mbuf *  
 ip_reass(struct ipqent *ipqe, struct ipq *fp, struct ipqhead *ipqhead)  
 {  
         struct mbuf *m = ipqe->ipqe_m;  
         struct ipqent *nq, *p, *q;  
         struct ip *ip;  
         struct mbuf *t;  
         int hlen = ipqe->ipqe_ip->ip_hl << 2;  
         int i, next, s;  
   
         IPQ_LOCK_CHECK();  
   
         /*  
          * Presence of header sizes in mbufs  
          * would confuse code below.  
          */  
         m->m_data += hlen;  
         m->m_len -= hlen;  
   
 #ifdef  notyet  
         /* make sure fragment limit is up-to-date */  
         CHECK_NMBCLUSTER_PARAMS();  
   
         /* If we have too many fragments, drop the older half. */  
         if (ip_nfrags >= ip_maxfrags)  
                 ip_reass_drophalf(void);  
 #endif  
   
         /*  
          * We are about to add a fragment; increment frag count.  
          */  
         ip_nfrags++;  
   
         /*  
          * If first fragment to arrive, create a reassembly queue.  
          */  
         if (fp == 0) {  
                 /*  
                  * Enforce upper bound on number of fragmented packets  
                  * for which we attempt reassembly;  
                  * If maxfrag is 0, never accept fragments.  
                  * If maxfrag is -1, accept all fragments without limitation.  
                  */  
                 if (ip_maxfragpackets < 0)  
                         ;  
                 else if (ip_nfragpackets >= ip_maxfragpackets)  
                         goto dropfrag;  
                 ip_nfragpackets++;  
                 fp = malloc(sizeof (struct ipq), M_FTABLE, M_NOWAIT);  
                 if (fp == NULL)  
                         goto dropfrag;  
                 LIST_INSERT_HEAD(ipqhead, fp, ipq_q);  
                 fp->ipq_nfrags = 1;  
                 fp->ipq_ttl = IPFRAGTTL;  
                 fp->ipq_p = ipqe->ipqe_ip->ip_p;  
                 fp->ipq_id = ipqe->ipqe_ip->ip_id;  
                 fp->ipq_tos = ipqe->ipqe_ip->ip_tos;  
                 TAILQ_INIT(&fp->ipq_fragq);  
                 fp->ipq_src = ipqe->ipqe_ip->ip_src;  
                 fp->ipq_dst = ipqe->ipqe_ip->ip_dst;  
                 p = NULL;  
                 goto insert;  
         } else {  
                 fp->ipq_nfrags++;  
         }  
   
         /*  
          * Find a segment which begins after this one does.  
          */  
         for (p = NULL, q = TAILQ_FIRST(&fp->ipq_fragq); q != NULL;  
             p = q, q = TAILQ_NEXT(q, ipqe_q))  
                 if (ntohs(q->ipqe_ip->ip_off) > ntohs(ipqe->ipqe_ip->ip_off))  
                         break;  
   
         /*  
          * If there is a preceding segment, it may provide some of  
          * our data already.  If so, drop the data from the incoming  
          * segment.  If it provides all of our data, drop us.  
          */  
         if (p != NULL) {  
                 i = ntohs(p->ipqe_ip->ip_off) + ntohs(p->ipqe_ip->ip_len) -  
                     ntohs(ipqe->ipqe_ip->ip_off);  
                 if (i > 0) {  
                         if (i >= ntohs(ipqe->ipqe_ip->ip_len))  
                                 goto dropfrag;  
                         m_adj(ipqe->ipqe_m, i);  
                         ipqe->ipqe_ip->ip_off =  
                             htons(ntohs(ipqe->ipqe_ip->ip_off) + i);  
                         ipqe->ipqe_ip->ip_len =  
                             htons(ntohs(ipqe->ipqe_ip->ip_len) - i);  
                 }  
         }  
   
         /*  
          * While we overlap succeeding segments trim them or,  
          * if they are completely covered, dequeue them.  
          */  
         for (; q != NULL &&  
             ntohs(ipqe->ipqe_ip->ip_off) + ntohs(ipqe->ipqe_ip->ip_len) >  
             ntohs(q->ipqe_ip->ip_off); q = nq) {  
                 i = (ntohs(ipqe->ipqe_ip->ip_off) +  
                     ntohs(ipqe->ipqe_ip->ip_len)) - ntohs(q->ipqe_ip->ip_off);  
                 if (i < ntohs(q->ipqe_ip->ip_len)) {  
                         q->ipqe_ip->ip_len =  
                             htons(ntohs(q->ipqe_ip->ip_len) - i);  
                         q->ipqe_ip->ip_off =  
                             htons(ntohs(q->ipqe_ip->ip_off) + i);  
                         m_adj(q->ipqe_m, i);  
                         break;  
                 }  
                 nq = TAILQ_NEXT(q, ipqe_q);  
                 m_freem(q->ipqe_m);  
                 TAILQ_REMOVE(&fp->ipq_fragq, q, ipqe_q);  
                 s = splvm();  
                 pool_put(&ipqent_pool, q);  
                 splx(s);  
                 fp->ipq_nfrags--;  
                 ip_nfrags--;  
         }  
   
 insert:  
         /*  
          * Stick new segment in its place;  
          * check for complete reassembly.  
          */  
         if (p == NULL) {  
                 TAILQ_INSERT_HEAD(&fp->ipq_fragq, ipqe, ipqe_q);  
         } else {  
                 TAILQ_INSERT_AFTER(&fp->ipq_fragq, p, ipqe, ipqe_q);  
         }  
         next = 0;  
         for (p = NULL, q = TAILQ_FIRST(&fp->ipq_fragq); q != NULL;  
             p = q, q = TAILQ_NEXT(q, ipqe_q)) {  
                 if (ntohs(q->ipqe_ip->ip_off) != next)  
                         return (0);  
                 next += ntohs(q->ipqe_ip->ip_len);  
         }  
         if (p->ipqe_mff)  
                 return (0);  
   
         /*  
          * Reassembly is complete.  Check for a bogus message size and  
          * concatenate fragments.  
          */  
         q = TAILQ_FIRST(&fp->ipq_fragq);  
         ip = q->ipqe_ip;  
         if ((next + (ip->ip_hl << 2)) > IP_MAXPACKET) {  
                 IP_STATINC(IP_STAT_TOOLONG);  
                 ip_freef(fp);  
                 return (0);  
         }  
         m = q->ipqe_m;  
         t = m->m_next;  
         m->m_next = 0;  
         m_cat(m, t);  
         nq = TAILQ_NEXT(q, ipqe_q);  
         s = splvm();  
         pool_put(&ipqent_pool, q);  
         splx(s);  
         for (q = nq; q != NULL; q = nq) {  
                 t = q->ipqe_m;  
                 nq = TAILQ_NEXT(q, ipqe_q);  
                 s = splvm();  
                 pool_put(&ipqent_pool, q);  
                 splx(s);  
                 m_cat(m, t);  
         }  
         ip_nfrags -= fp->ipq_nfrags;  
   
         /*  
          * Create header for new ip packet by  
          * modifying header of first packet;  
          * dequeue and discard fragment reassembly header.  
          * Make header visible.  
          */  
         ip->ip_len = htons(next);  
         ip->ip_src = fp->ipq_src;  
         ip->ip_dst = fp->ipq_dst;  
         LIST_REMOVE(fp, ipq_q);  
         free(fp, M_FTABLE);  
         ip_nfragpackets--;  
         m->m_len += (ip->ip_hl << 2);  
         m->m_data -= (ip->ip_hl << 2);  
         /* some debugging cruft by sklower, below, will go away soon */  
         if (m->m_flags & M_PKTHDR) { /* XXX this should be done elsewhere */  
                 int plen = 0;  
                 for (t = m; t; t = t->m_next)  
                         plen += t->m_len;  
                 m->m_pkthdr.len = plen;  
                 m->m_pkthdr.csum_flags = 0;  
         }  
         return (m);  
   
 dropfrag:  
         if (fp != 0)  
                 fp->ipq_nfrags--;  
         ip_nfrags--;  
         IP_STATINC(IP_STAT_FRAGDROPPED);  
         m_freem(m);  
         s = splvm();  
         pool_put(&ipqent_pool, ipqe);  
         splx(s);  
         return (0);  
 }  
   
 /*  
  * Free a fragment reassembly header and all  
  * associated datagrams.  
  */  
 void  
 ip_freef(struct ipq *fp)  
 {  
         struct ipqent *q, *p;  
         u_int nfrags = 0;  
         int s;  
   
         IPQ_LOCK_CHECK();  
   
         for (q = TAILQ_FIRST(&fp->ipq_fragq); q != NULL; q = p) {  
                 p = TAILQ_NEXT(q, ipqe_q);  
                 m_freem(q->ipqe_m);  
                 nfrags++;  
                 TAILQ_REMOVE(&fp->ipq_fragq, q, ipqe_q);  
                 s = splvm();  
                 pool_put(&ipqent_pool, q);  
                 splx(s);  
         }  
   
         if (nfrags != fp->ipq_nfrags)  
             printf("ip_freef: nfrags %d != %d\n", fp->ipq_nfrags, nfrags);  
         ip_nfrags -= nfrags;  
         LIST_REMOVE(fp, ipq_q);  
         free(fp, M_FTABLE);  
         ip_nfragpackets--;  
 }  
   
 /*  
  * IP reassembly TTL machinery for  multiplicative drop.  
  */  
 static u_int    fragttl_histo[(IPFRAGTTL+1)];  
   
   
 /*  
  * Decrement TTL of all reasembly queue entries by `ticks'.  
  * Count number of distinct fragments (as opposed to partial, fragmented  
  * datagrams) in the reassembly queue.  While we  traverse the entire  
  * reassembly queue, compute and return the median TTL over all fragments.  
  */  
 static u_int  
 ip_reass_ttl_decr(u_int ticks)  
 {  
         u_int nfrags, median, dropfraction, keepfraction;  
         struct ipq *fp, *nfp;  
         int i;  
   
         nfrags = 0;  
         memset(fragttl_histo, 0, sizeof fragttl_histo);  
   
         for (i = 0; i < IPREASS_NHASH; i++) {  
                 for (fp = LIST_FIRST(&ipq[i]); fp != NULL; fp = nfp) {  
                         fp->ipq_ttl = ((fp->ipq_ttl  <= ticks) ?  
                                        0 : fp->ipq_ttl - ticks);  
                         nfp = LIST_NEXT(fp, ipq_q);  
                         if (fp->ipq_ttl == 0) {  
                                 IP_STATINC(IP_STAT_FRAGTIMEOUT);  
                                 ip_freef(fp);  
                         } else {  
                                 nfrags += fp->ipq_nfrags;  
                                 fragttl_histo[fp->ipq_ttl] += fp->ipq_nfrags;  
                         }  
                 }  
         }  
   
         KASSERT(ip_nfrags == nfrags);  
   
         /* Find median (or other drop fraction) in histogram. */  
         dropfraction = (ip_nfrags / 2);  
         keepfraction = ip_nfrags - dropfraction;  
         for (i = IPFRAGTTL, median = 0; i >= 0; i--) {  
                 median +=  fragttl_histo[i];  
                 if (median >= keepfraction)  
                         break;  
         }  
   
         /* Return TTL of median (or other fraction). */  
         return (u_int)i;  
 }  
   
 void  
 ip_reass_drophalf(void)  
 {  
   
         u_int median_ticks;  
         /*  
          * Compute median TTL of all fragments, and count frags  
          * with that TTL or lower (roughly half of all fragments).  
          */  
         median_ticks = ip_reass_ttl_decr(0);  
   
         /* Drop half. */  
         median_ticks = ip_reass_ttl_decr(median_ticks);  
   
 }  
   
 /*  
  * IP timer processing;  
  * if a timer expires on a reassembly  
  * queue, discard it.  
  */   */
 void  void
 ip_slowtimo(void)  ip_slowtimo(void)
 {  {
         static u_int dropscanidx = 0;  
         u_int i;  
         u_int median_ttl;  
   
         mutex_enter(softnet_lock);          mutex_enter(softnet_lock);
         KERNEL_LOCK(1, NULL);          KERNEL_LOCK(1, NULL);
   
         IPQ_LOCK();          ip_reass_slowtimo();
   
         /* Age TTL of all fragments by 1 tick .*/  
         median_ttl = ip_reass_ttl_decr(1);  
   
         /* make sure fragment limit is up-to-date */  
         CHECK_NMBCLUSTER_PARAMS();  
   
         /* If we have too many fragments, drop the older half. */  
         if (ip_nfrags > ip_maxfrags)  
                 ip_reass_ttl_decr(median_ttl);  
   
         /*  
          * If we are over the maximum number of fragmented packets  
          * (due to the limit being lowered), drain off  
          * enough to get down to the new limit. Start draining  
          * from the reassembly hashqueue most recently drained.  
          */  
         if (ip_maxfragpackets < 0)  
                 ;  
         else {  
                 int wrapped = 0;  
   
                 i = dropscanidx;  
                 while (ip_nfragpackets > ip_maxfragpackets && wrapped == 0) {  
                         while (LIST_FIRST(&ipq[i]) != NULL)  
                                 ip_freef(LIST_FIRST(&ipq[i]));  
                         if (++i >= IPREASS_NHASH) {  
                                 i = 0;  
                         }  
                         /*  
                          * Dont scan forever even if fragment counters are  
                          * wrong: stop after scanning entire reassembly queue.  
                          */  
                         if (i == dropscanidx)  
                             wrapped = 1;  
                 }  
                 dropscanidx = i;  
         }  
         IPQ_UNLOCK();  
   
         KERNEL_UNLOCK_ONE(NULL);          KERNEL_UNLOCK_ONE(NULL);
         mutex_exit(softnet_lock);          mutex_exit(softnet_lock);
 }  }
   
 /*  /*
  * Drain off all datagram fragments.  Don't acquire softnet_lock as   * IP drain processing.
  * can be called from hardware interrupt context.  
  */   */
 void  void
 ip_drain(void)  ip_drain(void)
 {  {
   
         KERNEL_LOCK(1, NULL);          KERNEL_LOCK(1, NULL);
           ip_reass_drain();
         /*  
          * We may be called from a device's interrupt context.  If  
          * the ipq is already busy, just bail out now.  
          */  
         if (ipq_lock_try() != 0) {  
                 /*  
                  * Drop half the total fragments now. If more mbufs are  
                  * needed, we will be called again soon.  
                  */  
                 ip_reass_drophalf();  
                 IPQ_UNLOCK();  
         }  
   
         KERNEL_UNLOCK_ONE(NULL);          KERNEL_UNLOCK_ONE(NULL);
 }  }
   
Line 1826  const int inetctlerrmap[PRC_NCMDS] = {
Line 1180  const int inetctlerrmap[PRC_NCMDS] = {
         [PRC_PARAMPROB] = ENOPROTOOPT,          [PRC_PARAMPROB] = ENOPROTOOPT,
 };  };
   
   void
   ip_fasttimo(void)
   {
           if (ip_drainwanted) {
                   ip_drain();
                   ip_drainwanted = 0;
           }
   }
   
   void
   ip_drainstub(void)
   {
           ip_drainwanted = 1;
   }
   
 /*  /*
  * Forward a packet.  If some error occurs return the sender   * Forward a packet.  If some error occurs return the sender
  * an icmp packet.  Note we can't always generate a meaningful   * an icmp packet.  Note we can't always generate a meaningful
Line 1932  ip_forward(struct mbuf *m, int srcrt)
Line 1301  ip_forward(struct mbuf *m, int srcrt)
   
         error = ip_output(m, NULL, &ipforward_rt,          error = ip_output(m, NULL, &ipforward_rt,
             (IP_FORWARDING | (ip_directedbcast ? IP_ALLOWBROADCAST : 0)),              (IP_FORWARDING | (ip_directedbcast ? IP_ALLOWBROADCAST : 0)),
             (struct ip_moptions *)NULL, (struct socket *)NULL);              NULL, NULL);
   
         if (error)          if (error)
                 IP_STATINC(IP_STAT_CANTFORWARD);                  IP_STATINC(IP_STAT_CANTFORWARD);
Line 1978  ip_forward(struct mbuf *m, int srcrt)
Line 1347  ip_forward(struct mbuf *m, int srcrt)
   
                 if ((rt = rtcache_validate(&ipforward_rt)) != NULL)                  if ((rt = rtcache_validate(&ipforward_rt)) != NULL)
                         destmtu = rt->rt_ifp->if_mtu;                          destmtu = rt->rt_ifp->if_mtu;
   #ifdef IPSEC
 #if defined(IPSEC) || defined(FAST_IPSEC)                  (void)ipsec4_forward(mcopy, &destmtu);
                 {  
                         /*  
                          * If the packet is routed over IPsec tunnel, tell the  
                          * originator the tunnel MTU.  
                          *      tunnel MTU = if MTU - sizeof(IP) - ESP/AH hdrsiz  
                          * XXX quickhack!!!  
                          */  
   
                         struct secpolicy *sp;  
                         int ipsecerror;  
                         size_t ipsechdr;  
                         struct route *ro;  
   
                         sp = ipsec4_getpolicybyaddr(mcopy,  
                             IPSEC_DIR_OUTBOUND, IP_FORWARDING,  
                             &ipsecerror);  
   
                         if (sp != NULL) {  
                                 /* count IPsec header size */  
                                 ipsechdr = ipsec4_hdrsiz(mcopy,  
                                     IPSEC_DIR_OUTBOUND, NULL);  
   
                                 /*  
                                  * find the correct route for outer IPv4  
                                  * header, compute tunnel MTU.  
                                  */  
   
                                 if (sp->req != NULL  
                                  && sp->req->sav != NULL  
                                  && sp->req->sav->sah != NULL) {  
                                         ro = &sp->req->sav->sah->sa_route;  
                                         rt = rtcache_validate(ro);  
                                         if (rt && rt->rt_ifp) {  
                                                 destmtu =  
                                                     rt->rt_rmx.rmx_mtu ?  
                                                     rt->rt_rmx.rmx_mtu :  
                                                     rt->rt_ifp->if_mtu;  
                                                 destmtu -= ipsechdr;  
                                         }  
                                 }  
   
 #ifdef  IPSEC  
                                 key_freesp(sp);  
 #else  
                                 KEY_FREESP(&sp);  
 #endif  #endif
                         }  
                 }  
 #endif /*defined(IPSEC) || defined(FAST_IPSEC)*/  
                 IP_STATINC(IP_STAT_CANTFRAG);                  IP_STATINC(IP_STAT_CANTFRAG);
                 break;                  break;
   
Line 2057  ip_savecontrol(struct inpcb *inp, struct
Line 1378  ip_savecontrol(struct inpcb *inp, struct
     struct mbuf *m)      struct mbuf *m)
 {  {
   
         if (inp->inp_socket->so_options & SO_TIMESTAMP          if (inp->inp_socket->so_options & SO_TIMESTAMP
 #ifdef SO_OTIMESTAMP  #ifdef SO_OTIMESTAMP
             || inp->inp_socket->so_options & SO_OTIMESTAMP              || inp->inp_socket->so_options & SO_OTIMESTAMP
 #endif  #endif
             ) {              ) {
                 struct timeval tv;                  struct timeval tv;
Line 2207  sysctl_net_inet_ip_maxflows(SYSCTLFN_ARG
Line 1528  sysctl_net_inet_ip_maxflows(SYSCTLFN_ARG
   
 static int  static int
 sysctl_net_inet_ip_hashsize(SYSCTLFN_ARGS)  sysctl_net_inet_ip_hashsize(SYSCTLFN_ARGS)
 {  {
         int error, tmp;          int error, tmp;
         struct sysctlnode node;          struct sysctlnode node;
   
Line 2235  sysctl_net_inet_ip_hashsize(SYSCTLFN_ARG
Line 1556  sysctl_net_inet_ip_hashsize(SYSCTLFN_ARG
                  * EINVAL if not a power of 2                   * EINVAL if not a power of 2
                  */                   */
                 error = EINVAL;                  error = EINVAL;
         }          }
   
         return error;          return error;
 }  }
Line 2248  sysctl_net_inet_ip_stats(SYSCTLFN_ARGS)
Line 1569  sysctl_net_inet_ip_stats(SYSCTLFN_ARGS)
         return (NETSTAT_SYSCTL(ipstat_percpu, IP_NSTATS));          return (NETSTAT_SYSCTL(ipstat_percpu, IP_NSTATS));
 }  }
   
 SYSCTL_SETUP(sysctl_net_inet_ip_setup, "sysctl net.inet.ip subtree setup")  static void
   sysctl_net_inet_ip_setup(struct sysctllog **clog)
 {  {
         extern int subnetsarelocal, hostzeroisbroadcast;          extern int subnetsarelocal, hostzeroisbroadcast;
   
Line 2355  SYSCTL_SETUP(sysctl_net_inet_ip_setup, "
Line 1677  SYSCTL_SETUP(sysctl_net_inet_ip_setup, "
                        CTLFLAG_PERMANENT|CTLFLAG_READWRITE,                         CTLFLAG_PERMANENT|CTLFLAG_READWRITE,
                        CTLTYPE_INT, "mtudisctimeout",                         CTLTYPE_INT, "mtudisctimeout",
                        SYSCTL_DESCR("Lifetime of a Path MTU Discovered route"),                         SYSCTL_DESCR("Lifetime of a Path MTU Discovered route"),
                        sysctl_net_inet_ip_pmtudto, 0, &ip_mtudisc_timeout, 0,                         sysctl_net_inet_ip_pmtudto, 0, (void *)&ip_mtudisc_timeout, 0,
                        CTL_NET, PF_INET, IPPROTO_IP,                         CTL_NET, PF_INET, IPPROTO_IP,
                        IPCTL_MTUDISCTIMEOUT, CTL_EOL);                         IPCTL_MTUDISCTIMEOUT, CTL_EOL);
 #ifdef GATEWAY  #ifdef GATEWAY
Line 2408  SYSCTL_SETUP(sysctl_net_inet_ip_setup, "
Line 1730  SYSCTL_SETUP(sysctl_net_inet_ip_setup, "
                        CTL_NET, PF_INET, IPPROTO_IP,                         CTL_NET, PF_INET, IPPROTO_IP,
                        IPCTL_LOWPORTMAX, CTL_EOL);                         IPCTL_LOWPORTMAX, CTL_EOL);
 #endif /* IPNOPRIVPORTS */  #endif /* IPNOPRIVPORTS */
         sysctl_createv(clog, 0, NULL, NULL,  
                        CTLFLAG_PERMANENT|CTLFLAG_READWRITE,  
                        CTLTYPE_INT, "maxfragpackets",  
                        SYSCTL_DESCR("Maximum number of fragments to retain for "  
                                     "possible reassembly"),  
                        NULL, 0, &ip_maxfragpackets, 0,  
                        CTL_NET, PF_INET, IPPROTO_IP,  
                        IPCTL_MAXFRAGPACKETS, CTL_EOL);  
 #if NGRE > 0  #if NGRE > 0
         sysctl_createv(clog, 0, NULL, NULL,          sysctl_createv(clog, 0, NULL, NULL,
                        CTLFLAG_PERMANENT|CTLFLAG_READWRITE,                         CTLFLAG_PERMANENT|CTLFLAG_READWRITE,
Line 2454  SYSCTL_SETUP(sysctl_net_inet_ip_setup, "
Line 1768  SYSCTL_SETUP(sysctl_net_inet_ip_setup, "
                        sysctl_net_inet_ip_stats, 0, NULL, 0,                         sysctl_net_inet_ip_stats, 0, NULL, 0,
                        CTL_NET, PF_INET, IPPROTO_IP, IPCTL_STATS,                         CTL_NET, PF_INET, IPPROTO_IP, IPCTL_STATS,
                        CTL_EOL);                         CTL_EOL);
   
           /* anonportalgo RFC6056 subtree */
           const struct sysctlnode *portalgo_node;
           sysctl_createv(clog, 0, NULL, &portalgo_node,
                          CTLFLAG_PERMANENT,
                          CTLTYPE_NODE, "anonportalgo",
                          SYSCTL_DESCR("Anonymous Port Algorithm Selection (RFC 6056)"),
                          NULL, 0, NULL, 0,
                          CTL_NET, PF_INET, IPPROTO_IP, CTL_CREATE, CTL_EOL);
           sysctl_createv(clog, 0, &portalgo_node, NULL,
                          CTLFLAG_PERMANENT,
                          CTLTYPE_STRING, "available",
                          SYSCTL_DESCR("available algorithms"),
                          sysctl_portalgo_available, 0, NULL, PORTALGO_MAXLEN,
                          CTL_CREATE, CTL_EOL);
           sysctl_createv(clog, 0, &portalgo_node, NULL,
                          CTLFLAG_PERMANENT|CTLFLAG_READWRITE,
                          CTLTYPE_STRING, "selected",
                          SYSCTL_DESCR("selected algorithm"),
                          sysctl_portalgo_selected4, 0, NULL, PORTALGO_MAXLEN,
                          CTL_CREATE, CTL_EOL);
           sysctl_createv(clog, 0, &portalgo_node, NULL,
                          CTLFLAG_PERMANENT|CTLFLAG_READWRITE,
                          CTLTYPE_STRUCT, "reserve",
                          SYSCTL_DESCR("bitmap of reserved ports"),
                          sysctl_portalgo_reserve4, 0, NULL, 0,
                          CTL_CREATE, CTL_EOL);
 }  }
   
 void  void

Legend:
Removed from v.1.268.2.3  
changed lines
  Added in v.1.302.2.2

CVSweb <webmaster@jp.NetBSD.org>