w********e 发帖数: 557 | 1 改回dhcp试试?
ftp, rsync,remote desktop应该都可以啊 |
|
w********e 发帖数: 557 | 2 Just share the destination directory and mount it on the 2nd machine. You
can just cp or rsync. |
|
N****w 发帖数: 21578 | 3 要进 2.6.32 了
rsync, unison 可以成为历史了。。。 |
|
s******r 发帖数: 85 | 4 以前在linux下建立了一些含有冒号的文件,rsync到ntfs盘里以后,windows识别不了这
些文件,总说含有非法字符
如何在windows下直接删除? |
|
|
|
m******t 发帖数: 2416 | 7
I have a similar problem except I'm doing the opposite of what you are doing.
I have a host linux directory shared through vbox with a guest XP, and a
windows program writing data files into it. It takes much longer than it
would if it were a native windows folder. |
|
p*********e 发帖数: 32207 | 8 【 以下文字转载自 Apple 讨论区 】
发信人: pandamalone (0000~史前圣灵猫熊), 信区: Apple
标 题: 问一个mac下多用户远程登陆的问题
发信站: BBS 未名空间站 (Tue Sep 22 15:57:12 2009, 美东)
我现在的老(非unibody)MBP常年放在学校
最近加了一个1.5T的外置硬盘,准备用来给组里几个在学校hpc上干活的同学备份数据
现在为止的方案就是1.5t的分成200g一个FAT32分区
(为保证有人临时把外置硬盘接在win系统下仍方便访问)
然后每人有一个独立的分区
之后经hardware版高人指点利用rsync来完成远程服务器到本地的定期备份
现在进一步的想法是,想直接把这台机器做成静态ip
然后可以让组里的人sftp或者ssh过来,并且仅限制访问自己对应的分区
从而方便访问备份的数据,并可再将其他资料备份到自己的空间
而不能访问本地其他分区(这台机器原本我私人在用)
请问要如何才能实现呢?
谢! |
|
|
|
N****w 发帖数: 21578 | 11 copy is too slow
rsync is fast as it copies only the diff.
use |
|
|
c**t 发帖数: 2744 | 13 the remote server doesn't allow ssh login in; the sftpd is hosted by JSCAPE |
|
G**Y 发帖数: 33224 | 14 有这么一说吗?
我先是注意到xp看视频的时候,virtualbox不如virtual pc。
最近发现ubuntu的rsync似乎也很慢? |
|
|
|
|
k*****r 发帖数: 21039 | 18 现在俺们主要是3台机器,一个ubuntu的desktop, 一个ubuntu netbook remix for
travel, 还有就是mac book. 如果不是linux的D版matlab搞不定,我早就把mbp也
ubuntu了。
现在一个问题,怎么在ubuntu里面mount mbp的home dir ?
rsync可以在mbp和ubuntu之间运行码? |
|
|
v*****r 发帖数: 1119 | 20 If using windows, you will need to install cygwin to use rsync |
|
b*****s 发帖数: 12 | 21 Thank you, vbitter.
I know many sync/backup software can keep the same creation date/time for
the files, but not for the folders/directories.
If possible, please help me check "rsync --times" can keep the original
creation date/time for the folders/directories. I need to backup a lot of
data files and the origianl folder creation
date is important to me. |
|
v*****r 发帖数: 1119 | 22 you can add new files to tar, but not for updated files.
For increcental on updated files, use rsync |
|
|
k***e 发帖数: 7933 | 24 busybox installed on a router, no rsync |
|
g******e 发帖数: 3760 | 25 ok, got it. just add --delete |
|
c*a 发帖数: 806 | 26 想让一台Windows,二台Fedora同步一些directories.
多谢 |
|
S***d 发帖数: 1802 | 27 买三个dropbox的subscription. :))) |
|
c*a 发帖数: 806 | 28 谢谢。
昨天还查到这个link, 却没仔细看。回头试一下 |
|
|
c*********3 发帖数: 197 | 30 呵呵。典型的人笨怪刀钝。也不man一下或者google一下。 |
|
o**n 发帖数: 1249 | 31 对不起,读man不仔细,下次改,下次改 -_-! |
|
|
|
|
|
v*****r 发帖数: 1119 | 36 man 如果不 help 的话,info 一般会有例子 |
|
y***d 发帖数: 2330 | 37 搞一个 autorun 之类的东西?
like |
|
v*****r 发帖数: 1119 | 38 自己写个 udev rule 不就行了。
like |
|
M*P 发帖数: 6456 | 39 rsync能干类似SVN之类的版本控制么?
不需要太复杂,只需要能回到过去一个时间点的那种。 |
|
S*A 发帖数: 7142 | 40 没有很简单好用的。
你可以用 lvm 做简单backup.
1) lvm take snapshot.
2) backup the snapshot
3) remove the snapshot.
A good deal of the commercial back up system is doing
the redundant check and only backup the change part.
I guess you can do some thing like apple time machine
in LVM:
keep one old version of lvm snapshot.
when backup, take new snapshot.
Mount both snapshot, do file level diff.
rsync only the updated file into backup.
delete the old version of snapshot and keep the new one.
There is an old file sy... 阅读全帖 |
|
c****f 发帖数: 1102 | 41 条件没给全啊
要是一个目录下有.yy 和.aa的 你转不转这个目录?
还是保留目录的同时 只转.aa的文件和这个目录结构?
不过所有这些..用rsync就可以做了..
scp也做得到 但是要写一个小脚本 |
|
s****l 发帖数: 10462 | 42 好像 rsync 是我需要的东西,我好好读读使用手册。谢谢。 |
|
S*A 发帖数: 7142 | 43 先用 find 列出你要的文件,输出到一个列表里面。
然后用 rsync 从列表里面读需要移动的文件。 |
|
i*****e 发帖数: 1359 | 44 cron+rsync+script
or cron+unison
严重推荐unison |
|
j****c 发帖数: 19908 | 45 这两天两次遇到这个问题。
昨天我用rsync向移动硬盘备份数据,数据量比较大,100G左右,terminal里面出现一
行信息说 I/O error 然后就死机了,我重启后显示硬盘有error, force check硬盘后
找不到/proc 等文件夹,无法开机。用安装光盘启动也无法进入rescue mode。
今天把系统重装了之后,继续备份数据,开了两个terminal进行 cp 操作,之后又是同
样的问题 IO error,跟昨天一样开不了机。
现在回想起来,我在cp操作进行当中,又另外开了一个termail,进入正在进行cp 操作
的那个目录下用 ls -l 查看文件复制的情况,好像就是在执行 ls -l 的时候出现这个
IO error的。是不是因为cp 的数据量很大,两三百G的样子,导致在执行 ls -l 的时
候损害了磁盘的信息?
还有,这时候有什么办法能让我不用重装系统也能开机吗? |
|
x**m 发帖数: 941 | 46 重新运行一次,把输出和错误定向到一个文件,再看看这些信息有没有问题。 |
|
g****g 发帖数: 1828 | 47 嗯,这次好像没问题。 文件没有做任何改变。
receiving file list ...
1473 files to consider
deleting cpvnote/figs/plots/PreTag (Case Conflict 1)/CVS/
deleting cpvnote/figs/plots/PreTag (Case Conflict 1)/
cpvnote/figs/plots/
cpvnote/figs/plots/Pretag/
cpvnote/figs/plots/Pretag/CVS/
cpvnote/figs/plots/Pretag/CVS/Entries
2 100% 1.95kB/s 0:00:00 (xfer#1, to-check=170/1473)
cpvnote/figs/plots/Pretag/CVS/Repository
55 100% 53.71kB/s 0:00:00 (xfer#2, to-check=169/1473)
cpvnote/figs/plots/Preta... 阅读全帖 |
|
s****l 发帖数: 10462 | 48 我一个工作是要把一个很复杂很大的目录,定为A吧,从一个地方(X)备份到另外一个地
方(Y)
A里面的数据通常要在X上工作两三个星期才能进行完毕,为了安全,每天都会用rsync
备份XA里面某些重要的但仍然很多很大的文件到Y,Y里面的A每天或者每星期要压缩。
当X里面的A工作进行完毕后,第二天或者第二个星期要比较Y里面的A是否完整备份了X
里面的A。
我的问题是如何进行这个最后一步:比较是否完整备份。难点在于YA有可能是压缩的,
而且文件很多很大。
谢谢指点! |
|
S*A 发帖数: 7142 | 49 用 find 列出说有文件然后生成 md5 or sha1 checksum
然后比较 checksum 就可以了。
不怕慢的话就直接 X checkin 到 git 里面,然后 Y pull 出来
就行了。这个保证一致。
rsync
X |
|
s****l 发帖数: 10462 | 50 我倒是没有用 -c, 这就加上,不过还是要检查才行,因为在 X 上数据要连续生成两周
,期间每天都会 rsync |
|