カテゴリ | |
サマリ | wikiフォルダのバックアップの取り方 |
バージョン | 1.4.2 |
投稿者 | こうすけ? |
状態 | 完了 |
投稿日 | |
質問 †
こんばんは、お世話になります。
wikiフォルダのバックアップを、Fetchなどのソフトを使って手動でする場合、みなさんは、どのようにされているのでしょうか。
Pukiwikiには、自動的にバックアップを取ってくれる機能があります。
ただ、Fetchなどのソフトを使って、自分のパソコンへwikiフォルダをダウンロードした場合、ファイル名が重なってしまって、すべてのファイルをダウンロードをすることが出来ないのです。
多分、パソコン側のOSの問題だと思います。
基本的な質問で、誠に申し訳ありませんが、手動でwikiフォルダのバックアップを取る良い方法がありましたら、教えていただけないでしょうか。
どうかよろしくお願い致します。
回答 †
- reimy
簡単な方法は、サーバーのshellが使えるのなら、wikiフォルダをtarで書庫ファイルにして、ダウンロードするのがいいのでは? もちろん書庫ファイルのファイル名はローカル側のOSで使えるファイル名にするということで。とりあえず、バックアップはそれでできるはず。但し、ローカル側で書庫ファイルを解凍してしまうとファイル名が途中で切られて重複してしまうのでご注意を。
- reimy
wikiディレクトリ内の各wikiファイルをそのままの状態でCD-Rなどに焼く場合にも、ファイル名の長さが問題となりますので、書庫ファイルにしてから焼く必要があります。
- こうすけ?
もう一つ質問をします。いまPukiwikiには、ページ単位で書庫ファイルを作成してくれる自動バックアップの機能がありますが、wikiフォルダをまるごと自動的にバックアップしてくれるようにすることは、難しいでしょうか。
また、Pukiwikiで扱えるファイル名の長さには、文字数の制限がありますか?
面倒な質問をして申し訳ありませんが、もし、何か情報がありましたら教えていただきたいと思います。どうかよろしくお願い致します。
- reimy
Wikiページ名の文字数の制限はあります。正確には文字数ではなくバイト数です。そのため、euc-jpの環境とutf-8の環境で制限が異なります。アバウトで言えば、euc-jpの場合は全角文字1文字で2バイト、utf-8の場合は1文字で3バイト。半角文字は1文字で1バイト。さらにエンコードされたファイル名のバイト数がOSの制限を超えない範囲ということになります。
- こうすけ?
お答え、ありがとうございます。ファイル名やURLにも、ページ名をエンコードされたものが使われていると思いますが、名無しさんが書かれているような「エイリアス」のような機能を実現できればいいなあと思うのですが。。。
- Q&Aに移動 -- zm