<html>
  <head>
    <meta content="text/html; charset=windows-1252"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <div class="moz-cite-prefix">Another thing, depending on your nic,
      using a bond may kill things like hardware offload functionality -
      ran into that before too.  At 1gbe it's probably a wash as it's
      hard to tax a cpu at that, but do that at 10gbe without some
      strategic irq pinning and you'll be hard-pressed to get anywhere
      above 4gbe on the phy.<br>
      <br>
      -mb<br>
      <br>
      <br>
      <br>
      On 04/22/2015 02:42 PM, Stephen Partington wrote:<br>
    </div>
    <blockquote
cite="mid:CACS_G9z9V-Sdat7k3G=ACjMoDyVXtVdQ+dW-5NEKFCJkN=OftQ@mail.gmail.com"
      type="cite">
      <div dir="ltr">
        <div class="gmail_default" style="font-family:trebuchet
          ms,sans-serif">I am working on a ProxmoxVE cluster i have set
          up.<br>
          <br>
          I am needing a bit better network performance as i am also
          running CEPH for<br>
          the stoage layer<br>
          <br>
          This is what i have for network configuration is the
          following. it seems to<br>
          be working. the nodes i have configured appear to be running
          with better<br>
          throughput.<br>
          <br>
          root@computername:~# cat /etc/network/interfaces<br>
          # network interface settings<br>
          auto lo<br>
          iface lo inet loopback<br>
          <br>
          iface eth0 inet manual<br>
          <br>
          iface eth1 inet manual<br>
          <br>
          auto bond0<br>
          iface bond0 inet static<br>
                  address  10.40.216.235<br>
                  netmask  255.255.255.0<br>
                  slaves eth0 eth1<br>
                  bond_miimon 100<br>
                  bond_mode 802.3ad<br>
                  bond_xmit_hash_policy layer2<br>
          <br>
          auto vmbr0<br>
          iface vmbr0 inet static<br>
                  address  10.40.216.235<br>
                  netmask  255.255.255.0<br>
                  gateway  10.40.216.1<br>
                  bridge_ports bond0<br>
                  bridge_stp off<br>
                  bridge_fd 0<br>
          <br>
          root@computername:~#<br>
          <br>
          The backend network these servers are connected to are a Cisco
          Catalyst<br>
          4705R loaded with WS-X4524-GB-RJ45V modules.<br>
          <br>
          All my research says to use a network bond running LCAP for
          best<br>
          compatability/performance with this hardware. it all seems to
          be running,<br>
          but it is kind of weird that Proxmox would want me to create
          the bridge for<br>
          the VMs to run on kind of makes sense just feels weird to run
          a bond<br>
          inside  bridge.<br>
          <br>
          If anyone who has worked with proxmox has a better suggestion
          please let me<br>
          know.<br>
          <br>
          Thanks for your time.<br>
          <br>
          -- <br>
          A mouse trap, placed on top of your alarm clock, will prevent
          you from<br>
          rolling over and going back to sleep after you hit the snooze
          button.<br>
          <br>
          Stephen<br>
          <br>
        </div>
      </div>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">---------------------------------------------------
PLUG-discuss mailing list - <a class="moz-txt-link-abbreviated" href="mailto:PLUG-discuss@lists.phxlinux.org">PLUG-discuss@lists.phxlinux.org</a>
To subscribe, unsubscribe, or to change your mail settings:
<a class="moz-txt-link-freetext" href="http://lists.phxlinux.org/mailman/listinfo/plug-discuss">http://lists.phxlinux.org/mailman/listinfo/plug-discuss</a></pre>
    </blockquote>
    <br>
  </body>
</html>