<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html>
<head>
  <meta content="text/html;charset=ISO-8859-1" http-equiv="Content-Type">
</head>
<body bgcolor="#ffffff" text="#000000">
<blockquote
 cite="mid:e3d9cdf71001072054x64d1bed1l7cbc0f563d837949@mail.gmail.com"
 type="cite">
  <pre wrap="">On Thu, Jan 7, 2010 at 5:52 PM, sean machin <a class="moz-txt-link-rfc2396E" href="mailto:smachin1000@gmail.com">&lt;smachin1000@gmail.com&gt;</a> wrote:
  </pre>
  <blockquote type="cite">
    <pre wrap="">I'm writing a python script for my Centos server which (among other
things), tries to FTP a large (7GB) archive image to another server
across the WAN.
My script calls the curl program to do the upload. &nbsp;Curl always seems to
fail after a few 100MB however.
    </pre>
  </blockquote>
  <pre wrap=""><!---->
Does FTP even work for files larger that large?  I seem to remember
running into an issue at work where we could not upload files larger
than a few gigabytes (can't remember the exact cut-off) via FTP due to
some sort of 32-bit limitation.  We were using PyCurl on the client (a
Python interface to the Curl libraries) and vsftpd on the server, both
running RHEL 5.3.

I don't remember exactly how the transfer would fail, though.
  </pre>
</blockquote>