Bem, este parece bastante simples, e é. Tudo o que você tem que fazer para baixar um arquivo para o seu servidor é:
file_put_contents("Tmpfile.zip", file_get_contents("http://someurl/file.zip"));
Só há um problema. E se você tiver um arquivo grande, como 100mb. Então, você ficará sem memória e não será capaz de fazer o download do arquivo.
O que eu quero é uma forma de escrever o ficheiro no disco enquanto o estou a descarregar. Dessa forma, posso descarregar ficheiros maiores, sem problemas de memória.
Desde o PHP 5.1.0, file_put_contents()
suporta escrever peça por peça, passando um cabo de fluxo como o parâmetro `$data':
file_put_contents("Tmpfile.zip", fopen("http://someurl/file.zip", 'r'));
Do manual:
Se data [esse é o segundo argumento] for um recurso de fluxo, o buffer restante desse fluxo será copiado para o arquivo especificado. Isto é semelhante com a utilização de
stream_copy_to_stream()
.
(Obrigado Hakre.)
private function downloadFile($url, $path)
{
$newfname = $path;
$file = fopen ($url, 'rb');
if ($file) {
$newf = fopen ($newfname, 'wb');
if ($newf) {
while(!feof($file)) {
fwrite($newf, fread($file, 1024 * 8), 1024 * 8);
}
}
}
if ($file) {
fclose($file);
}
if ($newf) {
fclose($newf);
}
}
Tente usar o cURL
set_time_limit(0); // unlimited max execution time
$options = array(
CURLOPT_FILE => '/path/to/download/the/file/to.zip',
CURLOPT_TIMEOUT => 28800, // set this to 8 hours so we dont timeout on big files
CURLOPT_URL => 'http://remoteserver.com/path/to/big/file.zip',
);
$ch = curl_init();
curl_setopt_array($ch, $options);
curl_exec($ch);
curl_close($ch);
I'não tenho certeza, mas acredito que com a opção CURLOPT_FILE
ela escreve enquanto puxa os dados, ou seja, não é tamponada.