PageCookery的手机快速微博功能--概念内测版

最近用PageCookery架了一个情侣微博http://love.yourtion.com。是一个双栏情侣微博。随时随地的手机微博功能自然少不了! PageCookery的手机发布功能比较方便,但是部分是手机将居然连Cookie都不支持,这样就没办法办法成功登陆,更不用说微博,我女朋友的手机就是一个典型。 为此,我在PageCookery手机网页端的基础上,改写了一个快速验证的微博发布回复系统,解决女朋友手机没办法发微博的问题,一开始是在原来微博系统的基础上增加一个case,绕过原来的用户验证机制,用另外一个明码密码进行验证用户,最终发布微博。 但是后来发现我在电脑可以正常发布微博到了手机就不行,研究了很久发现可能是POST的时候用的Form的enctype类型问题,把multipart/form-data改成application/x-www-form-urlencoded之后我地方手机是正常了,但是女朋友的还是不行,最终导致我重新写了发布的代码,但是问题依旧。 在我研究了三天这个东西,即将抓狂的时候,决定把POST改成GET,然后,居然奇迹般的正常了,神马山寨机啊,居然连POST数据都会···我就开始佩服那些163啊新浪啊,他们的微博居然在我女朋友那边神马手机也能正常,算了,差距···· 因为是自己做来自己用,还是很粗糙的代码,安全性也一般,还有一些是硬编码,也就不放源码了,基本实现思路也说了,有兴趣的可以一起研究下,或者有空了重新写一下那些代码再发布。最后看图说话,快速发布微博的几个页面·····


全文约 39 字, 预计阅读时间为 1 分钟

PageCookery与新浪微博、微博通同步更新

因为讨厌了嘀咕同步到新浪微博的时候加的是嘀咕的链接,加上最近刚好想研究一下新浪API,借此机会研究开始研究curl和json的使用。 看了很多文章还有研究一些插件后,决定采用Base认证进行链接,因为比较简单可行,怎么说也是个初学者嘛! 在PageCookery的index.php里面找到case ‘save’:,在里面找到: $entryid = $SQL->Insert('entry', array('prefix', 'content', 'time', 'from', 'userid'), array(intval($_POST['prefix']), Format::Safe($_POST['message']), TIMENOW,...


全文约 238 字, 预计阅读时间为 1 分钟

PageCookery自动生成Sitemap

之前写过《PageCookery生成SiteMap》的文章,介绍了怎么样利用rss生成类改造成sitemap。 但是每次生成SiteMap都要手动运行sitemap.php才会生成,最近在研究快速发布微博的功能,刚好在编辑httprequest.php这个文件,看到rss生成的cron。灵机一动,利用corn进行知道生成sitemap。 很简单,在httprequest.php里面找到case 'cron':,在$_config['rss_import'] = array (上面插入以下代码: $_config['sitemap'] = array( 'cache_root' => str_replace(basename($_SERVER['PHP_SELF']), '', __FILE__)...


全文约 102 字, 预计阅读时间为 1 分钟

PHP历遍二维数组

最近在研究PageCookery的快速发布,解决手机没有Cookies的问题。在谓语调用部分要历遍数据库读取的二维数组。 一开始打算用foreach来历遍,但是发现没有成功,oo不过关,没办法oo写······ 研究后决定用for循环,演示代码如下: <?php $blog=array( array( "titledata"=>"titleMM", "bodydata"=>"bodyMM" ), array( "titledata"=>"titleGG", "bodydata"=>"bodyGG" ) ); //出错...


全文约 133 字, 预计阅读时间为 1 分钟

微博数据恢复记

前段时间因为误操作,导致整个服务器上的数据全部丢失,博客因为数据库定时备份,所以恢复起来有些问题,但是还是有数据可以恢复的。 最大的问题是微博的所有数据库都没备份,巧妇难为无米之炊啊!!!所以一直没有动。那天灵机一动想起我的PageCookery是自动同步到嘀咕的,遂决定从嘀咕入手,恢复数据。 首先去opencolud把我所有的嘀咕导出成文章发到博客大巴,然后进行第二步: 然后把导出来的数据黏贴到记事本进行初步的整理,再导入到Excel中进行SQL的批量生成,然后发现有时区问题造成的时间差,又研究了好一些SQL的解决方案,最后写出了SQL。 然后进入数据库导入数据。因为嘀咕的数据只有微博内容没有回复什么的,最后也就只能新建个谓语叫“之前说”,至此,微博内容数据恢复完成,YourtionSay回来了。 欢迎继续支持http://t.yourtion.com


全文约 31 字, 预计阅读时间为 1 分钟