Сейчас расчет прогнозируемого времени на закачку осуществляется простым образом: общий размер файла делиться на скорость, верно?
Предположим ситуацию, что у нас есть два файла: (1) один размером 100 Кб, (2) второй - 10 Мб, и пусть они одновременно качаются со скоростью 10 Кб/сек (ширина канала 20 Кб/сек). По прогнозам первый закачается за 10 секунд, второй - за 1000 сек (16 минут). Но на самом деле можно предусмотреть, что когда закачка файла (1) прекратиться, скорость файла (2) возрастеть до 20 Кб/сек, и прогнозируемое время загрузки составит уже 10000/20 = 8 минут...
У меня предложение - почему бы не рассчитать это сразу?