我有很多未跟踪的文件。我很确定我可以删除其中的大部分内容,但是...您知道,备份可能会有所帮助;)类似情况你在做什么? 最佳答案 以下命令将在您目录中所有未跟踪(且未忽略)的文件的主目录中创建一个tar存档:gitls-files--others--exclude-standard-z|xargs-0tarrvf~/backup-untracked.tar如果您要使用此技术,请仔细检查gitls-files--others--exclude-standard是否会自行生成您期望的文件列表!关于此解决方案的一些注意事项可能是有序的:我
我有最新的存储库。然后我删除了几个文件,这是错误的。我想取回新的存储库。我愿意$gitpulloriginmaster并期望从服务器获取所有内容,但收到的消息表明所有内容都是最新的。如何使用gitpull从服务器获取源代码? 最佳答案 您可以将本地分支重置为远程分支gitreset--hardorigin/main 关于git-如何用gitpull找回删除的文件?,我们在StackOverflow上找到一个类似的问题: https://stackoverflo
我有最新的存储库。然后我删除了几个文件,这是错误的。我想取回新的存储库。我愿意$gitpulloriginmaster并期望从服务器获取所有内容,但收到的消息表明所有内容都是最新的。如何使用gitpull从服务器获取源代码? 最佳答案 您可以将本地分支重置为远程分支gitreset--hardorigin/main 关于git-如何用gitpull找回删除的文件?,我们在StackOverflow上找到一个类似的问题: https://stackoverflo
我正在尝试制作一个脚本,用于将我的主目录和其他重要目录备份到外部驱动器,同时排除某些目录和文件类型(--exclude)。排除的文件也需要在备份中删除,以防我将文件类型或目录添加到排除列表(--delete-excluded)。此外,所有删除的内容也需要备份,以防万一出现严重错误(--backup--backup-dir=rsync/backup)。我从这个开始:#!/usr/bin/envbashPATH_PWD="`pwd`"PATH_HOME=~SRC="/home/redsandro"PATH_TARGET="/media/redsandro/MyBook4TB/backup/
我正在尝试制作一个脚本,用于将我的主目录和其他重要目录备份到外部驱动器,同时排除某些目录和文件类型(--exclude)。排除的文件也需要在备份中删除,以防我将文件类型或目录添加到排除列表(--delete-excluded)。此外,所有删除的内容也需要备份,以防万一出现严重错误(--backup--backup-dir=rsync/backup)。我从这个开始:#!/usr/bin/envbashPATH_PWD="`pwd`"PATH_HOME=~SRC="/home/redsandro"PATH_TARGET="/media/redsandro/MyBook4TB/backup/
我正在运行rdiff-backup来备份远程系统上的一些文件夹。rdiff-backuproot@::/apps/myapp/shared/system/home/backups/systemecho"$(date):Completed...removingbackupdataolderthan4weeks"rdiff-backup--remove-older-than4W/home/backups/systemecho"$(date):Completed..."虽然在--remove-older-than命令期间运行它会导致错误:FatalError:Found81relevanti
我正在运行rdiff-backup来备份远程系统上的一些文件夹。rdiff-backuproot@::/apps/myapp/shared/system/home/backups/systemecho"$(date):Completed...removingbackupdataolderthan4weeks"rdiff-backup--remove-older-than4W/home/backups/systemecho"$(date):Completed..."虽然在--remove-older-than命令期间运行它会导致错误:FatalError:Found81relevanti
据我所知,Linux上的所有磁盘读取都会进入页面缓存。有没有办法阻止读取(由备份进程完成)进入页面缓存?想象一下:服务器运行良好,因为大多数操作不需要接触磁盘,因为有足够的内存可用。现在备份过程开始并进行大量读取。读取的字节进入内存(页面缓存),尽管没有人希望在接下来的几个小时内再次读取相同的字节。备份数据填满了内存,缓存中更重要的页面被丢弃。服务器性能变得更差,因为更多操作需要接触磁盘,因为相关页面已从缓存中删除。我的首选解决方案:告诉linux备份进程完成的读取不需要存储在页面缓存中。 最佳答案 如果您使用rsync,则根据th
据我所知,Linux上的所有磁盘读取都会进入页面缓存。有没有办法阻止读取(由备份进程完成)进入页面缓存?想象一下:服务器运行良好,因为大多数操作不需要接触磁盘,因为有足够的内存可用。现在备份过程开始并进行大量读取。读取的字节进入内存(页面缓存),尽管没有人希望在接下来的几个小时内再次读取相同的字节。备份数据填满了内存,缓存中更重要的页面被丢弃。服务器性能变得更差,因为更多操作需要接触磁盘,因为相关页面已从缓存中删除。我的首选解决方案:告诉linux备份进程完成的读取不需要存储在页面缓存中。 最佳答案 如果您使用rsync,则根据th
目前我正在尝试做这样的事情:1个cron作业backup_daily2个cron作业backup_weekly3个cron作业backup_monthly因此,可能发生的情况是,例如每日和每周将在同一天运行。至少其中一个会失败,因为应该备份的文件被另一个备份进程锁定。因此,一个简单的解决方案是在不同时间运行作业。但由于我们不能确切地说出一项工作需要多长时间,所以这有点难看。所以我在想的是一个代理脚本,所以我不会做上面的cron工作,而是做类似的事情1个cron作业check_if_anybackup_is_running_and_run_backup_daily_else_wait_t