“Mediawiki备份迁移”的版本间的差异

来自linux中国网wiki
跳到导航 跳到搜索
docker>Evan
 
 
(未显示同一用户的10个中间版本)
第1行: 第1行:
  
+
=2019迁移=
 +
 
 +
[[Wordpress迁移]]
 +
 
 +
 
 +
2019的 详情请见 [[Docker 安装mediawiki]]
 +
 
 +
 
 
特殊页面 -> 导出页面  ->  从分类添加页面: 里面填写上 分类名 然后 点击 添加  -> 导出
 
特殊页面 -> 导出页面  ->  从分类添加页面: 里面填写上 分类名 然后 点击 添加  -> 导出
  
第6行: 第13行:
 
现在有个问题是 分类下面关联不了相关文章 因为redis的问题 只能每个文章都手工一次后 才能完全生效 哈哈
 
现在有个问题是 分类下面关联不了相关文章 因为redis的问题 只能每个文章都手工一次后 才能完全生效 哈哈
  
这个暂时不理 以后 mediawiki 记得db 换为postgresql
+
这次用了别的cache 也是得每个文章变一下 内容才和分类关联呢 201910
 +
 
 +
=备份和还原=
 +
==备份 也就是导出==
 +
=== 整理标题列表===
 +
左边菜单下  特殊页面 --> 所有页面  复制页面列表内容,整理成一行一个页面名称的文本列表 其实很方便复制的 我以前还一个个类死 笨蛋  昨天在irc上问了 别人给了参考 和认真看了一下
 +
 
 +
=== 用所有标题列表导出内容===
 +
左边菜单下  特殊页面 -->导出页面  https://wiki.linuxchina.net/index.php/%E7%89%B9%E6%AE%8A:%E5%AF%BC%E5%87%BA%E9%A1%B5%E9%9D%A2
 +
在上一步 整理好的 页面列表内容  放到 手动添加页面 导出为 xml
 +
 
 +
==导入==
 +
就很容易啦 参考上面
 +
 
 +
在导入时要填写这个
 +
跨wiki前缀 wiki
 +
 
 +
 
 +
就很容易啦 参考上面
 +
 
 +
在导入时要填写这个
 +
跨wiki前缀 wiki
 +
 
 +
<pre>
 +
ng conf
 +
client_max_body_size 20M;
 +
 
 +
大文件可能因两个原因被拒绝。PHP确认文件php.ini中的PHP上传限制。
 +
 
 +
; Maximum allowed size for uploaded files.
 +
upload_max_filesize = 20M
 +
 
 +
也可能是隐藏变量限制了输入框的大小。这需要在mediawiki源代码中查找, includes/specials/SpecialImport.php:
 +
 
 +
  <input type='hidden' name='MAX_FILE_SIZE' value='20000000' />
 +
 
 +
您或许应更改php.ini中的以下4条指令:
 +
 
 +
; Maximum size of POST data that PHP will accept.
 +
post_max_size = 20M
 +
 
 +
max_execution_time = 1000  ; Maximum execution time of each script, in seconds
 +
max_input_time = 2000     ; Maximum amount of time each script may spend parsing request data
 +
 
 +
; Default timeout for socket based streams (seconds)
 +
default_socket_timeout = 2000
 +
 
 +
 
 +
mediawiki 导入  504
 +
nginx代理文件上传时报错:504 gateway time-out的一种解决办法
 +
 
 +
 
 +
 
 +
 
 +
 
 +
#http请求被放在nginx待处理池中等待被服务器处理的最长时间,默认为60秒,可以改大到600秒
 +
proxy_connect_timeout 600;
 +
 +
#http请求被服务器处理完后,把数据返回给nginx的时间,默认60秒,可以改大到600秒
 +
proxy_send_timeout 600;
 +
</pre>
 +
 
 +
https://meta.wikimedia.org/wiki/Help:Import/zh
 +
 
 +
 
 +
https://www.mediawiki.org/wiki/Manual:DumpBackup.php
 +
 
 +
https://www.mediawiki.org/wiki/Manual:Backing_up_a_wiki/zh#%E5%A4%87%E4%BB%BDwiki%E7%9A%84%E5%86%85%E5%AE%B9%EF%BC%88XML%E8%BD%AC%E5%82%A8%EF%BC%89
 +
 
 +
 
 +
用脚本
 +
 
 +
https://www.mediawiki.org/wiki/Manual:Backing_up_a_wiki/zh#%E8%84%9A%E6%9C%AC
 +
 
 +
以后 mediawiki 记得db 换为postgresql 得有空才行
 +
 
 +
 
 +
[https://blog.csdn.net/josonchen/article/details/45700243  实例操作--mediawiki页面的导出和导入]
  
 
  [[category:wiki]]
 
  [[category:wiki]]

2021年12月20日 (一) 09:16的最新版本

2019迁移

Wordpress迁移


2019的 详情请见 Docker 安装mediawiki


特殊页面 -> 导出页面 -> 从分类添加页面: 里面填写上 分类名 然后 点击 添加 -> 导出


现在有个问题是 分类下面关联不了相关文章 因为redis的问题 只能每个文章都手工一次后 才能完全生效 哈哈

这次用了别的cache 也是得每个文章变一下 内容才和分类关联呢 201910

备份和还原

备份 也就是导出

整理标题列表

左边菜单下 特殊页面 --> 所有页面 复制页面列表内容,整理成一行一个页面名称的文本列表 其实很方便复制的 我以前还一个个类死 笨蛋 昨天在irc上问了 别人给了参考 和认真看了一下

用所有标题列表导出内容

左边菜单下 特殊页面 -->导出页面 https://wiki.linuxchina.net/index.php/%E7%89%B9%E6%AE%8A:%E5%AF%BC%E5%87%BA%E9%A1%B5%E9%9D%A2

在上一步 整理好的 页面列表内容  放到 手动添加页面 导出为 xml

导入

就很容易啦 参考上面

在导入时要填写这个 跨wiki前缀 wiki


就很容易啦 参考上面

在导入时要填写这个 跨wiki前缀 wiki

ng conf 
client_max_body_size 20M;

大文件可能因两个原因被拒绝。PHP确认文件php.ini中的PHP上传限制。

 ; Maximum allowed size for uploaded files.
 upload_max_filesize = 20M

也可能是隐藏变量限制了输入框的大小。这需要在mediawiki源代码中查找, includes/specials/SpecialImport.php:

   <input type='hidden' name='MAX_FILE_SIZE' value='20000000' /> 

您或许应更改php.ini中的以下4条指令:

; Maximum size of POST data that PHP will accept.
post_max_size = 20M

max_execution_time = 1000  ; Maximum execution time of each script, in seconds
max_input_time = 2000	    ; Maximum amount of time each script may spend parsing request data

; Default timeout for socket based streams (seconds)
default_socket_timeout = 2000


mediawiki 导入  504 
nginx代理文件上传时报错:504 gateway time-out的一种解决办法





#http请求被放在nginx待处理池中等待被服务器处理的最长时间,默认为60秒,可以改大到600秒
proxy_connect_timeout 600;
	
#http请求被服务器处理完后,把数据返回给nginx的时间,默认60秒,可以改大到600秒
proxy_send_timeout 600;

https://meta.wikimedia.org/wiki/Help:Import/zh


https://www.mediawiki.org/wiki/Manual:DumpBackup.php

https://www.mediawiki.org/wiki/Manual:Backing_up_a_wiki/zh#%E5%A4%87%E4%BB%BDwiki%E7%9A%84%E5%86%85%E5%AE%B9%EF%BC%88XML%E8%BD%AC%E5%82%A8%EF%BC%89


用脚本

https://www.mediawiki.org/wiki/Manual:Backing_up_a_wiki/zh#%E8%84%9A%E6%9C%AC

以后 mediawiki 记得db 换为postgresql 得有空才行


实例操作--mediawiki页面的导出和导入