Mediawiki备份迁移

来自linux中国网wiki
跳到导航 跳到搜索

2019迁移

Wordpress迁移


2019的 详情请见 Docker 安装mediawiki


特殊页面 -> 导出页面 -> 从分类添加页面: 里面填写上 分类名 然后 点击 添加 -> 导出


现在有个问题是 分类下面关联不了相关文章 因为redis的问题 只能每个文章都手工一次后 才能完全生效 哈哈

这次用了别的cache 也是得每个文章变一下 内容才和分类关联呢 201910

备份和还原

备份 也就是导出

整理标题列表

左边菜单下 特殊页面 --> 所有页面 复制页面列表内容,整理成一行一个页面名称的文本列表 其实很方便复制的 我以前还一个个类死 笨蛋 昨天在irc上问了 别人给了参考 和认真看了一下

用所有标题列表导出内容

左边菜单下 特殊页面 -->导出页面 https://wiki.linuxchina.net/index.php/%E7%89%B9%E6%AE%8A:%E5%AF%BC%E5%87%BA%E9%A1%B5%E9%9D%A2

在上一步 整理好的 页面列表内容  放到 手动添加页面 导出为 xml

导入

就很容易啦 参考上面

在导入时要填写这个 跨wiki前缀 wiki


就很容易啦 参考上面

在导入时要填写这个 跨wiki前缀 wiki

ng conf 
client_max_body_size 20M;

大文件可能因两个原因被拒绝。PHP确认文件php.ini中的PHP上传限制。

 ; Maximum allowed size for uploaded files.
 upload_max_filesize = 20M

也可能是隐藏变量限制了输入框的大小。这需要在mediawiki源代码中查找, includes/specials/SpecialImport.php:

   <input type='hidden' name='MAX_FILE_SIZE' value='20000000' /> 

您或许应更改php.ini中的以下4条指令:

; Maximum size of POST data that PHP will accept.
post_max_size = 20M

max_execution_time = 1000  ; Maximum execution time of each script, in seconds
max_input_time = 2000	    ; Maximum amount of time each script may spend parsing request data

; Default timeout for socket based streams (seconds)
default_socket_timeout = 2000


mediawiki 导入  504 
nginx代理文件上传时报错:504 gateway time-out的一种解决办法





#http请求被放在nginx待处理池中等待被服务器处理的最长时间,默认为60秒,可以改大到600秒
proxy_connect_timeout 600;
	
#http请求被服务器处理完后,把数据返回给nginx的时间,默认60秒,可以改大到600秒
proxy_send_timeout 600;

https://meta.wikimedia.org/wiki/Help:Import/zh


https://www.mediawiki.org/wiki/Manual:DumpBackup.php

https://www.mediawiki.org/wiki/Manual:Backing_up_a_wiki/zh#%E5%A4%87%E4%BB%BDwiki%E7%9A%84%E5%86%85%E5%AE%B9%EF%BC%88XML%E8%BD%AC%E5%82%A8%EF%BC%89


用脚本

https://www.mediawiki.org/wiki/Manual:Backing_up_a_wiki/zh#%E8%84%9A%E6%9C%AC

以后 mediawiki 记得db 换为postgresql 得有空才行


实例操作--mediawiki页面的导出和导入