[BACK]Return to ip_input.c CVS log [TXT][DIR] Up to [cvs.NetBSD.org] / src / sys / netinet

Please note that diffs are not public domain; they are subject to the copyright notices on the relevant files.

Diff for /src/sys/netinet/ip_input.c between version 1.284.2.3 and 1.285

version 1.284.2.3, 2010/11/06 08:08:49 version 1.285, 2010/03/31 07:31:15
Line 104  __KERNEL_RCSID(0, "$NetBSD$");
Line 104  __KERNEL_RCSID(0, "$NetBSD$");
   
 #include <sys/param.h>  #include <sys/param.h>
 #include <sys/systm.h>  #include <sys/systm.h>
   #include <sys/malloc.h>
 #include <sys/mbuf.h>  #include <sys/mbuf.h>
 #include <sys/domain.h>  #include <sys/domain.h>
 #include <sys/protosw.h>  #include <sys/protosw.h>
Line 230  u_long in_multihash;    /* size of hash 
Line 231  u_long in_multihash;    /* size of hash 
 int     in_multientries;                        /* total number of addrs */  int     in_multientries;                        /* total number of addrs */
 struct  in_multihashhead *in_multihashtbl;  struct  in_multihashhead *in_multihashtbl;
 struct  ifqueue ipintrq;  struct  ifqueue ipintrq;
   
 ipid_state_t *          ip_ids;  
 uint16_t ip_id;  uint16_t ip_id;
   
 percpu_t *ipstat_percpu;  percpu_t *ipstat_percpu;
Line 240  percpu_t *ipstat_percpu;
Line 239  percpu_t *ipstat_percpu;
 struct pfil_head inet_pfil_hook;  struct pfil_head inet_pfil_hook;
 #endif  #endif
   
   /*
    * Cached copy of nmbclusters. If nbclusters is different,
    * recalculate IP parameters derived from nmbclusters.
    */
   static int      ip_nmbclusters;                 /* copy of nmbclusters */
   static void     ip_nmbclusters_changed(void);   /* recalc limits */
   
   #define CHECK_NMBCLUSTER_PARAMS()                               \
   do {                                                            \
           if (__predict_false(ip_nmbclusters != nmbclusters))     \
                   ip_nmbclusters_changed();                       \
   } while (/*CONSTCOND*/0)
   
   /* IP datagram reassembly queues (hashed) */
   #define IPREASS_NHASH_LOG2      6
   #define IPREASS_NHASH           (1 << IPREASS_NHASH_LOG2)
   #define IPREASS_HMASK           (IPREASS_NHASH - 1)
   #define IPREASS_HASH(x,y) \
           (((((x) & 0xF) | ((((x) >> 8) & 0xF) << 4)) ^ (y)) & IPREASS_HMASK)
   struct ipqhead ipq[IPREASS_NHASH];
   int     ipq_locked;
   static int      ip_nfragpackets;        /* packets in reass queue */
   static int      ip_nfrags;              /* total fragments in reass queues */
   
   int     ip_maxfragpackets = 200;        /* limit on packets. XXX sysctl */
   int     ip_maxfrags;                    /* limit on fragments. XXX sysctl */
   
   
   /*
    * Additive-Increase/Multiplicative-Decrease (AIMD) strategy for
    * IP reassembly queue buffer managment.
    *
    * We keep a count of total IP fragments (NB: not fragmented packets!)
    * awaiting reassembly (ip_nfrags) and a limit (ip_maxfrags) on fragments.
    * If ip_nfrags exceeds ip_maxfrags the limit, we drop half the
    * total fragments in  reassembly queues.This AIMD policy avoids
    * repeatedly deleting single packets under heavy fragmentation load
    * (e.g., from lossy NFS peers).
    */
   static u_int    ip_reass_ttl_decr(u_int ticks);
   static void     ip_reass_drophalf(void);
   
   
   static inline int ipq_lock_try(void);
   static inline void ipq_unlock(void);
   
   static inline int
   ipq_lock_try(void)
   {
           int s;
   
           /*
            * Use splvm() -- we're blocking things that would cause
            * mbuf allocation.
            */
           s = splvm();
           if (ipq_locked) {
                   splx(s);
                   return (0);
           }
           ipq_locked = 1;
           splx(s);
           return (1);
   }
   
   static inline void
   ipq_unlock(void)
   {
           int s;
   
           s = splvm();
           ipq_locked = 0;
           splx(s);
   }
   
   #ifdef DIAGNOSTIC
   #define IPQ_LOCK()                                                      \
   do {                                                                    \
           if (ipq_lock_try() == 0) {                                      \
                   printf("%s:%d: ipq already locked\n", __FILE__, __LINE__); \
                   panic("ipq_lock");                                      \
           }                                                               \
   } while (/*CONSTCOND*/ 0)
   #define IPQ_LOCK_CHECK()                                                \
   do {                                                                    \
           if (ipq_locked == 0) {                                          \
                   printf("%s:%d: ipq lock not held\n", __FILE__, __LINE__); \
                   panic("ipq lock check");                                \
           }                                                               \
   } while (/*CONSTCOND*/ 0)
   #else
   #define IPQ_LOCK()              (void) ipq_lock_try()
   #define IPQ_LOCK_CHECK()        /* nothing */
   #endif
   
   #define IPQ_UNLOCK()            ipq_unlock()
   
 struct pool inmulti_pool;  struct pool inmulti_pool;
   struct pool ipqent_pool;
   
 #ifdef INET_CSUM_COUNTERS  #ifdef INET_CSUM_COUNTERS
 #include <sys/device.h>  #include <sys/device.h>
Line 289  struct mowner ip_tx_mowner = MOWNER_INIT
Line 386  struct mowner ip_tx_mowner = MOWNER_INIT
 static void sysctl_net_inet_ip_setup(struct sysctllog **);  static void sysctl_net_inet_ip_setup(struct sysctllog **);
   
 /*  /*
    * Compute IP limits derived from the value of nmbclusters.
    */
   static void
   ip_nmbclusters_changed(void)
   {
           ip_maxfrags = nmbclusters / 4;
           ip_nmbclusters =  nmbclusters;
   }
   
   /*
  * IP initialization: fill in IP protocol switch table.   * IP initialization: fill in IP protocol switch table.
  * All protocols not implemented in kernel go to raw IP protocol handler.   * All protocols not implemented in kernel go to raw IP protocol handler.
  */   */
Line 302  ip_init(void)
Line 409  ip_init(void)
   
         pool_init(&inmulti_pool, sizeof(struct in_multi), 0, 0, 0, "inmltpl",          pool_init(&inmulti_pool, sizeof(struct in_multi), 0, 0, 0, "inmltpl",
             NULL, IPL_SOFTNET);              NULL, IPL_SOFTNET);
           pool_init(&ipqent_pool, sizeof(struct ipqent), 0, 0, 0, "ipqepl",
               NULL, IPL_VM);
   
         pr = pffindproto(PF_INET, IPPROTO_RAW, SOCK_RAW);          pr = pffindproto(PF_INET, IPPROTO_RAW, SOCK_RAW);
         if (pr == 0)          if (pr == 0)
Line 314  ip_init(void)
Line 423  ip_init(void)
                     pr->pr_protocol && pr->pr_protocol != IPPROTO_RAW)                      pr->pr_protocol && pr->pr_protocol != IPPROTO_RAW)
                         ip_protox[pr->pr_protocol] = pr - inetsw;                          ip_protox[pr->pr_protocol] = pr - inetsw;
   
         ip_reass_init();          for (i = 0; i < IPREASS_NHASH; i++)
                   LIST_INIT(&ipq[i]);
   
         ip_ids = ip_id_init();          ip_initid();
         ip_id = time_second & 0xfffff;          ip_id = time_second & 0xfffff;
   
         ipintrq.ifq_maxlen = ipqmaxlen;          ipintrq.ifq_maxlen = ipqmaxlen;
           ip_nmbclusters_changed();
   
         TAILQ_INIT(&in_ifaddrhead);          TAILQ_INIT(&in_ifaddrhead);
         in_ifaddrhashtbl = hashinit(IN_IFADDR_HASH_SIZE, HASH_LIST, true,          in_ifaddrhashtbl = hashinit(IN_IFADDR_HASH_SIZE, HASH_LIST, true,
Line 363  ipintr(void)
Line 474  ipintr(void)
 {  {
         int s;          int s;
         struct mbuf *m;          struct mbuf *m;
         struct ifqueue lcl_intrq;  
   
         memset(&lcl_intrq, 0, sizeof(lcl_intrq));  
         ipintrq.ifq_maxlen = ipqmaxlen;  
   
         mutex_enter(softnet_lock);          mutex_enter(softnet_lock);
         KERNEL_LOCK(1, NULL);          KERNEL_LOCK(1, NULL);
         if (!IF_IS_EMPTY(&ipintrq)) {          while (!IF_IS_EMPTY(&ipintrq)) {
                 s = splnet();                  s = splnet();
                   IF_DEQUEUE(&ipintrq, m);
                 /* Take existing queue onto stack */  
                 lcl_intrq = ipintrq;  
   
                 /* Zero out global queue, preserving maxlen and drops */  
                 ipintrq.ifq_head = NULL;  
                 ipintrq.ifq_tail = NULL;  
                 ipintrq.ifq_len = 0;  
                 ipintrq.ifq_maxlen = lcl_intrq.ifq_maxlen;  
                 ipintrq.ifq_drops = lcl_intrq.ifq_drops;  
   
                 splx(s);                  splx(s);
         }  
         KERNEL_UNLOCK_ONE(NULL);  
         while (!IF_IS_EMPTY(&lcl_intrq)) {  
                 IF_DEQUEUE(&lcl_intrq, m);  
                 if (m == NULL)                  if (m == NULL)
                         break;                          break;
                   KERNEL_UNLOCK_ONE(NULL);
                 ip_input(m);                  ip_input(m);
                   KERNEL_LOCK(1, NULL);
         }          }
           KERNEL_UNLOCK_ONE(NULL);
         mutex_exit(softnet_lock);          mutex_exit(softnet_lock);
 }  }
   
Line 403  void
Line 499  void
 ip_input(struct mbuf *m)  ip_input(struct mbuf *m)
 {  {
         struct ip *ip = NULL;          struct ip *ip = NULL;
           struct ipq *fp;
         struct in_ifaddr *ia;          struct in_ifaddr *ia;
         struct ifaddr *ifa;          struct ifaddr *ifa;
         int hlen = 0, len;          struct ipqent *ipqe;
           int hlen = 0, mff, len;
         int downmatch;          int downmatch;
         int checkif;          int checkif;
         int srcrt = 0;          int srcrt = 0;
           int s;
           u_int hash;
 #ifdef FAST_IPSEC  #ifdef FAST_IPSEC
         struct m_tag *mtag;          struct m_tag *mtag;
         struct tdb_ident *tdbi;          struct tdb_ident *tdbi;
         struct secpolicy *sp;          struct secpolicy *sp;
         int error, s;          int error;
 #endif /* FAST_IPSEC */  #endif /* FAST_IPSEC */
   
         MCLAIM(m, &ip_rx_mowner);          MCLAIM(m, &ip_rx_mowner);
         KASSERT((m->m_flags & M_PKTHDR) != 0);  #ifdef  DIAGNOSTIC
           if ((m->m_flags & M_PKTHDR) == 0)
                   panic("ipintr no HDR");
   #endif
   
         /*          /*
          * If no IP addresses have been set yet but the interfaces           * If no IP addresses have been set yet but the interfaces
Line 805  ip_input(struct mbuf *m)
Line 908  ip_input(struct mbuf *m)
 ours:  ours:
         /*          /*
          * If offset or IP_MF are set, must reassemble.           * If offset or IP_MF are set, must reassemble.
            * Otherwise, nothing need be done.
            * (We could look in the reassembly queue to see
            * if the packet was previously fragmented,
            * but it's not worth the time; just let them time out.)
          */           */
         if (ip->ip_off & ~htons(IP_DF|IP_RF)) {          if (ip->ip_off & ~htons(IP_DF|IP_RF)) {
                   uint16_t off;
                 /*                  /*
                  * Pass to IP reassembly mechanism.                   * Prevent TCP blind data attacks by not allowing non-initial
                    * fragments to start at less than 68 bytes (minimal fragment
                    * size) and making sure the first fragment is at least 68
                    * bytes.
                  */                   */
                 if (ip_reass_packet(&m, ip) != 0) {                  off = (ntohs(ip->ip_off) & IP_OFFMASK) << 3;
                         /* Failed; invalid fragment(s) or packet. */                  if ((off > 0 ? off + hlen : len) < IP_MINFRAGSIZE - 1) {
                           IP_STATINC(IP_STAT_BADFRAGS);
                         goto bad;                          goto bad;
                 }                  }
                 if (m == NULL) {                  /*
                         /* More fragments should come; silently return. */                   * Look for queue of fragments
                         return;                   * of this datagram.
                    */
                   IPQ_LOCK();
                   hash = IPREASS_HASH(ip->ip_src.s_addr, ip->ip_id);
                   LIST_FOREACH(fp, &ipq[hash], ipq_q) {
                           if (ip->ip_id == fp->ipq_id &&
                               in_hosteq(ip->ip_src, fp->ipq_src) &&
                               in_hosteq(ip->ip_dst, fp->ipq_dst) &&
                               ip->ip_p == fp->ipq_p) {
                                   /*
                                    * Make sure the TOS is matches previous
                                    * fragments.
                                    */
                                   if (ip->ip_tos != fp->ipq_tos) {
                                           IP_STATINC(IP_STAT_BADFRAGS);
                                           IPQ_UNLOCK();
                                           goto bad;
                                   }
                                   goto found;
                           }
                 }                  }
                   fp = 0;
   found:
   
                 /*                  /*
                  * Reassembly is done, we have the final packet.                   * Adjust ip_len to not reflect header,
                  * Updated cached data in local variable(s).                   * set ipqe_mff if more fragments are expected,
                    * convert offset of this to bytes.
                  */                   */
                 ip = mtod(m, struct ip *);                  ip->ip_len = htons(ntohs(ip->ip_len) - hlen);
                 hlen = ip->ip_hl << 2;                  mff = (ip->ip_off & htons(IP_MF)) != 0;
                   if (mff) {
                           /*
                            * Make sure that fragments have a data length
                            * that's a non-zero multiple of 8 bytes.
                            */
                           if (ntohs(ip->ip_len) == 0 ||
                               (ntohs(ip->ip_len) & 0x7) != 0) {
                                   IP_STATINC(IP_STAT_BADFRAGS);
                                   IPQ_UNLOCK();
                                   goto bad;
                           }
                   }
                   ip->ip_off = htons((ntohs(ip->ip_off) & IP_OFFMASK) << 3);
   
                   /*
                    * If datagram marked as having more fragments
                    * or if this is not the first fragment,
                    * attempt reassembly; if it succeeds, proceed.
                    */
                   if (mff || ip->ip_off != htons(0)) {
                           IP_STATINC(IP_STAT_FRAGMENTS);
                           s = splvm();
                           ipqe = pool_get(&ipqent_pool, PR_NOWAIT);
                           splx(s);
                           if (ipqe == NULL) {
                                   IP_STATINC(IP_STAT_RCVMEMDROP);
                                   IPQ_UNLOCK();
                                   goto bad;
                           }
                           ipqe->ipqe_mff = mff;
                           ipqe->ipqe_m = m;
                           ipqe->ipqe_ip = ip;
                           m = ip_reass(ipqe, fp, &ipq[hash]);
                           if (m == 0) {
                                   IPQ_UNLOCK();
                                   return;
                           }
                           IP_STATINC(IP_STAT_REASSEMBLED);
                           ip = mtod(m, struct ip *);
                           hlen = ip->ip_hl << 2;
                           ip->ip_len = htons(ntohs(ip->ip_len) + hlen);
                   } else
                           if (fp)
                                   ip_freef(fp);
                   IPQ_UNLOCK();
         }          }
   
 #if defined(IPSEC)  #if defined(IPSEC)
Line 901  badcsum:
Line 1081  badcsum:
 }  }
   
 /*  /*
  * IP timer processing.   * Take incoming datagram fragment and try to
    * reassemble it into whole datagram.  If a chain for
    * reassembly of this datagram already exists, then it
    * is given as fp; otherwise have to make a chain.
    */
   struct mbuf *
   ip_reass(struct ipqent *ipqe, struct ipq *fp, struct ipqhead *ipqhead)
   {
           struct mbuf *m = ipqe->ipqe_m;
           struct ipqent *nq, *p, *q;
           struct ip *ip;
           struct mbuf *t;
           int hlen = ipqe->ipqe_ip->ip_hl << 2;
           int i, next, s;
   
           IPQ_LOCK_CHECK();
   
           /*
            * Presence of header sizes in mbufs
            * would confuse code below.
            */
           m->m_data += hlen;
           m->m_len -= hlen;
   
   #ifdef  notyet
           /* make sure fragment limit is up-to-date */
           CHECK_NMBCLUSTER_PARAMS();
   
           /* If we have too many fragments, drop the older half. */
           if (ip_nfrags >= ip_maxfrags)
                   ip_reass_drophalf(void);
   #endif
   
           /*
            * We are about to add a fragment; increment frag count.
            */
           ip_nfrags++;
   
           /*
            * If first fragment to arrive, create a reassembly queue.
            */
           if (fp == 0) {
                   /*
                    * Enforce upper bound on number of fragmented packets
                    * for which we attempt reassembly;
                    * If maxfrag is 0, never accept fragments.
                    * If maxfrag is -1, accept all fragments without limitation.
                    */
                   if (ip_maxfragpackets < 0)
                           ;
                   else if (ip_nfragpackets >= ip_maxfragpackets)
                           goto dropfrag;
                   ip_nfragpackets++;
                   fp = malloc(sizeof (struct ipq), M_FTABLE, M_NOWAIT);
                   if (fp == NULL)
                           goto dropfrag;
                   LIST_INSERT_HEAD(ipqhead, fp, ipq_q);
                   fp->ipq_nfrags = 1;
                   fp->ipq_ttl = IPFRAGTTL;
                   fp->ipq_p = ipqe->ipqe_ip->ip_p;
                   fp->ipq_id = ipqe->ipqe_ip->ip_id;
                   fp->ipq_tos = ipqe->ipqe_ip->ip_tos;
                   TAILQ_INIT(&fp->ipq_fragq);
                   fp->ipq_src = ipqe->ipqe_ip->ip_src;
                   fp->ipq_dst = ipqe->ipqe_ip->ip_dst;
                   p = NULL;
                   goto insert;
           } else {
                   fp->ipq_nfrags++;
           }
   
           /*
            * Find a segment which begins after this one does.
            */
           for (p = NULL, q = TAILQ_FIRST(&fp->ipq_fragq); q != NULL;
               p = q, q = TAILQ_NEXT(q, ipqe_q))
                   if (ntohs(q->ipqe_ip->ip_off) > ntohs(ipqe->ipqe_ip->ip_off))
                           break;
   
           /*
            * If there is a preceding segment, it may provide some of
            * our data already.  If so, drop the data from the incoming
            * segment.  If it provides all of our data, drop us.
            */
           if (p != NULL) {
                   i = ntohs(p->ipqe_ip->ip_off) + ntohs(p->ipqe_ip->ip_len) -
                       ntohs(ipqe->ipqe_ip->ip_off);
                   if (i > 0) {
                           if (i >= ntohs(ipqe->ipqe_ip->ip_len))
                                   goto dropfrag;
                           m_adj(ipqe->ipqe_m, i);
                           ipqe->ipqe_ip->ip_off =
                               htons(ntohs(ipqe->ipqe_ip->ip_off) + i);
                           ipqe->ipqe_ip->ip_len =
                               htons(ntohs(ipqe->ipqe_ip->ip_len) - i);
                   }
           }
   
           /*
            * While we overlap succeeding segments trim them or,
            * if they are completely covered, dequeue them.
            */
           for (; q != NULL &&
               ntohs(ipqe->ipqe_ip->ip_off) + ntohs(ipqe->ipqe_ip->ip_len) >
               ntohs(q->ipqe_ip->ip_off); q = nq) {
                   i = (ntohs(ipqe->ipqe_ip->ip_off) +
                       ntohs(ipqe->ipqe_ip->ip_len)) - ntohs(q->ipqe_ip->ip_off);
                   if (i < ntohs(q->ipqe_ip->ip_len)) {
                           q->ipqe_ip->ip_len =
                               htons(ntohs(q->ipqe_ip->ip_len) - i);
                           q->ipqe_ip->ip_off =
                               htons(ntohs(q->ipqe_ip->ip_off) + i);
                           m_adj(q->ipqe_m, i);
                           break;
                   }
                   nq = TAILQ_NEXT(q, ipqe_q);
                   m_freem(q->ipqe_m);
                   TAILQ_REMOVE(&fp->ipq_fragq, q, ipqe_q);
                   s = splvm();
                   pool_put(&ipqent_pool, q);
                   splx(s);
                   fp->ipq_nfrags--;
                   ip_nfrags--;
           }
   
   insert:
           /*
            * Stick new segment in its place;
            * check for complete reassembly.
            */
           if (p == NULL) {
                   TAILQ_INSERT_HEAD(&fp->ipq_fragq, ipqe, ipqe_q);
           } else {
                   TAILQ_INSERT_AFTER(&fp->ipq_fragq, p, ipqe, ipqe_q);
           }
           next = 0;
           for (p = NULL, q = TAILQ_FIRST(&fp->ipq_fragq); q != NULL;
               p = q, q = TAILQ_NEXT(q, ipqe_q)) {
                   if (ntohs(q->ipqe_ip->ip_off) != next)
                           return (0);
                   next += ntohs(q->ipqe_ip->ip_len);
           }
           if (p->ipqe_mff)
                   return (0);
   
           /*
            * Reassembly is complete.  Check for a bogus message size and
            * concatenate fragments.
            */
           q = TAILQ_FIRST(&fp->ipq_fragq);
           ip = q->ipqe_ip;
           if ((next + (ip->ip_hl << 2)) > IP_MAXPACKET) {
                   IP_STATINC(IP_STAT_TOOLONG);
                   ip_freef(fp);
                   return (0);
           }
           m = q->ipqe_m;
           t = m->m_next;
           m->m_next = 0;
           m_cat(m, t);
           nq = TAILQ_NEXT(q, ipqe_q);
           s = splvm();
           pool_put(&ipqent_pool, q);
           splx(s);
           for (q = nq; q != NULL; q = nq) {
                   t = q->ipqe_m;
                   nq = TAILQ_NEXT(q, ipqe_q);
                   s = splvm();
                   pool_put(&ipqent_pool, q);
                   splx(s);
                   m_cat(m, t);
           }
           ip_nfrags -= fp->ipq_nfrags;
   
           /*
            * Create header for new ip packet by
            * modifying header of first packet;
            * dequeue and discard fragment reassembly header.
            * Make header visible.
            */
           ip->ip_len = htons(next);
           ip->ip_src = fp->ipq_src;
           ip->ip_dst = fp->ipq_dst;
           LIST_REMOVE(fp, ipq_q);
           free(fp, M_FTABLE);
           ip_nfragpackets--;
           m->m_len += (ip->ip_hl << 2);
           m->m_data -= (ip->ip_hl << 2);
           /* some debugging cruft by sklower, below, will go away soon */
           if (m->m_flags & M_PKTHDR) { /* XXX this should be done elsewhere */
                   int plen = 0;
                   for (t = m; t; t = t->m_next)
                           plen += t->m_len;
                   m->m_pkthdr.len = plen;
                   m->m_pkthdr.csum_flags = 0;
           }
           return (m);
   
   dropfrag:
           if (fp != 0)
                   fp->ipq_nfrags--;
           ip_nfrags--;
           IP_STATINC(IP_STAT_FRAGDROPPED);
           m_freem(m);
           s = splvm();
           pool_put(&ipqent_pool, ipqe);
           splx(s);
           return (0);
   }
   
   /*
    * Free a fragment reassembly header and all
    * associated datagrams.
    */
   void
   ip_freef(struct ipq *fp)
   {
           struct ipqent *q, *p;
           u_int nfrags = 0;
           int s;
   
           IPQ_LOCK_CHECK();
   
           for (q = TAILQ_FIRST(&fp->ipq_fragq); q != NULL; q = p) {
                   p = TAILQ_NEXT(q, ipqe_q);
                   m_freem(q->ipqe_m);
                   nfrags++;
                   TAILQ_REMOVE(&fp->ipq_fragq, q, ipqe_q);
                   s = splvm();
                   pool_put(&ipqent_pool, q);
                   splx(s);
           }
   
           if (nfrags != fp->ipq_nfrags)
               printf("ip_freef: nfrags %d != %d\n", fp->ipq_nfrags, nfrags);
           ip_nfrags -= nfrags;
           LIST_REMOVE(fp, ipq_q);
           free(fp, M_FTABLE);
           ip_nfragpackets--;
   }
   
   /*
    * IP reassembly TTL machinery for  multiplicative drop.
    */
   static u_int    fragttl_histo[(IPFRAGTTL+1)];
   
   
   /*
    * Decrement TTL of all reasembly queue entries by `ticks'.
    * Count number of distinct fragments (as opposed to partial, fragmented
    * datagrams) in the reassembly queue.  While we  traverse the entire
    * reassembly queue, compute and return the median TTL over all fragments.
    */
   static u_int
   ip_reass_ttl_decr(u_int ticks)
   {
           u_int nfrags, median, dropfraction, keepfraction;
           struct ipq *fp, *nfp;
           int i;
   
           nfrags = 0;
           memset(fragttl_histo, 0, sizeof fragttl_histo);
   
           for (i = 0; i < IPREASS_NHASH; i++) {
                   for (fp = LIST_FIRST(&ipq[i]); fp != NULL; fp = nfp) {
                           fp->ipq_ttl = ((fp->ipq_ttl  <= ticks) ?
                                          0 : fp->ipq_ttl - ticks);
                           nfp = LIST_NEXT(fp, ipq_q);
                           if (fp->ipq_ttl == 0) {
                                   IP_STATINC(IP_STAT_FRAGTIMEOUT);
                                   ip_freef(fp);
                           } else {
                                   nfrags += fp->ipq_nfrags;
                                   fragttl_histo[fp->ipq_ttl] += fp->ipq_nfrags;
                           }
                   }
           }
   
           KASSERT(ip_nfrags == nfrags);
   
           /* Find median (or other drop fraction) in histogram. */
           dropfraction = (ip_nfrags / 2);
           keepfraction = ip_nfrags - dropfraction;
           for (i = IPFRAGTTL, median = 0; i >= 0; i--) {
                   median +=  fragttl_histo[i];
                   if (median >= keepfraction)
                           break;
           }
   
           /* Return TTL of median (or other fraction). */
           return (u_int)i;
   }
   
   void
   ip_reass_drophalf(void)
   {
   
           u_int median_ticks;
           /*
            * Compute median TTL of all fragments, and count frags
            * with that TTL or lower (roughly half of all fragments).
            */
           median_ticks = ip_reass_ttl_decr(0);
   
           /* Drop half. */
           median_ticks = ip_reass_ttl_decr(median_ticks);
   
   }
   
   /*
    * IP timer processing;
    * if a timer expires on a reassembly
    * queue, discard it.
  */   */
 void  void
 ip_slowtimo(void)  ip_slowtimo(void)
 {  {
           static u_int dropscanidx = 0;
           u_int i;
           u_int median_ttl;
   
         mutex_enter(softnet_lock);          mutex_enter(softnet_lock);
         KERNEL_LOCK(1, NULL);          KERNEL_LOCK(1, NULL);
   
         ip_reass_slowtimo();          IPQ_LOCK();
   
           /* Age TTL of all fragments by 1 tick .*/
           median_ttl = ip_reass_ttl_decr(1);
   
           /* make sure fragment limit is up-to-date */
           CHECK_NMBCLUSTER_PARAMS();
   
           /* If we have too many fragments, drop the older half. */
           if (ip_nfrags > ip_maxfrags)
                   ip_reass_ttl_decr(median_ttl);
   
           /*
            * If we are over the maximum number of fragmented packets
            * (due to the limit being lowered), drain off
            * enough to get down to the new limit. Start draining
            * from the reassembly hashqueue most recently drained.
            */
           if (ip_maxfragpackets < 0)
                   ;
           else {
                   int wrapped = 0;
   
                   i = dropscanidx;
                   while (ip_nfragpackets > ip_maxfragpackets && wrapped == 0) {
                           while (LIST_FIRST(&ipq[i]) != NULL)
                                   ip_freef(LIST_FIRST(&ipq[i]));
                           if (++i >= IPREASS_NHASH) {
                                   i = 0;
                           }
                           /*
                            * Dont scan forever even if fragment counters are
                            * wrong: stop after scanning entire reassembly queue.
                            */
                           if (i == dropscanidx)
                               wrapped = 1;
                   }
                   dropscanidx = i;
           }
           IPQ_UNLOCK();
   
         KERNEL_UNLOCK_ONE(NULL);          KERNEL_UNLOCK_ONE(NULL);
         mutex_exit(softnet_lock);          mutex_exit(softnet_lock);
 }  }
   
 /*  /*
  * IP drain processing.   * Drain off all datagram fragments.  Don't acquire softnet_lock as
    * can be called from hardware interrupt context.
  */   */
 void  void
 ip_drain(void)  ip_drain(void)
 {  {
   
         KERNEL_LOCK(1, NULL);          KERNEL_LOCK(1, NULL);
         ip_reass_drain();  
           /*
            * We may be called from a device's interrupt context.  If
            * the ipq is already busy, just bail out now.
            */
           if (ipq_lock_try() != 0) {
                   /*
                    * Drop half the total fragments now. If more mbufs are
                    * needed, we will be called again soon.
                    */
                   ip_reass_drophalf();
                   IPQ_UNLOCK();
           }
   
         KERNEL_UNLOCK_ONE(NULL);          KERNEL_UNLOCK_ONE(NULL);
 }  }
   
Line 1867  sysctl_net_inet_ip_setup(struct sysctllo
Line 2415  sysctl_net_inet_ip_setup(struct sysctllo
                        CTL_NET, PF_INET, IPPROTO_IP,                         CTL_NET, PF_INET, IPPROTO_IP,
                        IPCTL_LOWPORTMAX, CTL_EOL);                         IPCTL_LOWPORTMAX, CTL_EOL);
 #endif /* IPNOPRIVPORTS */  #endif /* IPNOPRIVPORTS */
           sysctl_createv(clog, 0, NULL, NULL,
                          CTLFLAG_PERMANENT|CTLFLAG_READWRITE,
                          CTLTYPE_INT, "maxfragpackets",
                          SYSCTL_DESCR("Maximum number of fragments to retain for "
                                       "possible reassembly"),
                          NULL, 0, &ip_maxfragpackets, 0,
                          CTL_NET, PF_INET, IPPROTO_IP,
                          IPCTL_MAXFRAGPACKETS, CTL_EOL);
 #if NGRE > 0  #if NGRE > 0
         sysctl_createv(clog, 0, NULL, NULL,          sysctl_createv(clog, 0, NULL, NULL,
                        CTLFLAG_PERMANENT|CTLFLAG_READWRITE,                         CTLFLAG_PERMANENT|CTLFLAG_READWRITE,

Legend:
Removed from v.1.284.2.3  
changed lines
  Added in v.1.285

CVSweb <webmaster@jp.NetBSD.org>