你们的上传逻辑能不能学学人家阿里云盘,为什么已经上传过的文件再次上传到【同一文件目录下】居然强制覆盖的?为什么强制覆盖这个逻辑很烂,第一,替换后该文件上传时间会变动,不方便日后通过相近上传时间的文件联想回忆整理,第二:重复上传占用cpu,内存,对硬盘擦写损耗,【校验哈希值疯狂扫描磁盘】耗费上传时间,第三:有可能只是文件名一样,大小不一样,强制覆盖就再也找不回,第四:同一目录文件夹不需要两个相同的文件,即使需要也是应该由用户自己选择是跳过还是覆盖还是都保留,第五:假设我有一个待上传的文件夹,大部分已经上传过,每天会有新文件进来,但因为担心漏了上传一些文件,需要确保真的备份到云端了【因为很多时候必然会删掉硬盘里一些已经备份到云端的文件】如果我全部拖进去,重复上传的文件必然很多,弊端详情请看第二,而如果不全部拖进去,几千上百个文件一一核对要浪费多少时间?
1934869 回复含违规内容 只看该作者 举报
1934869
哈希一样自动覆盖完全没问题,只是你觉得不好而已。