《使用 dbfetch 从远程数据库中批量下载序列》的评论 https://bnuzhutao.cn/archives/813 Mon, 09 Nov 2020 07:35:26 +0000 hourly 1 https://wordpress.org/?v=5.5.3 作者:LoveTracy https://bnuzhutao.cn/archives/813#comment-2716 Fri, 21 Sep 2012 06:48:09 +0000 http://bnuzt.org/?p=813#comment-2716 谢谢分享。 dbfetch最多一次200个id吧,如果要下上万条序列,是不是很麻烦. 有更好的办法吗? 😛

]]>
作者:billzt https://bnuzhutao.cn/archives/813#comment-1666 Wed, 28 Dec 2011 14:19:42 +0000 http://bnuzt.org/?p=813#comment-1666 回复给jiechic

@jiechic, 很欢迎啊!

]]>
作者:jiechic https://bnuzhutao.cn/archives/813#comment-1664 Wed, 28 Dec 2011 13:42:02 +0000 http://bnuzt.org/?p=813#comment-1664 看到你们写的gtkqq的论坛文章看到这个博客的,不过,收藏了。Gtkqq的源码有空研究一下。这个项目还是很有意思的。

]]>
作者:文刀木水SEO博客 https://bnuzhutao.cn/archives/813#comment-1598 Fri, 16 Dec 2011 14:51:39 +0000 http://bnuzt.org/?p=813#comment-1598 这个看不懂 一头雾水 – –

]]>
作者:billzt https://bnuzhutao.cn/archives/813#comment-1590 Wed, 14 Dec 2011 13:28:48 +0000 http://bnuzt.org/?p=813#comment-1590 回复给Puriney

@Puriney, 喔喔,我并没有把那两篇删掉,只是用删划线把它们划掉了,在结尾处添加了链接,你可以去看看 :mrgreen:

]]>
作者:Puriney https://bnuzhutao.cn/archives/813#comment-1589 Wed, 14 Dec 2011 13:26:35 +0000 http://bnuzt.org/?p=813#comment-1589 “天朝的网速伤不起”,但那两篇关于bioperl的日志不失为极好的教程,所以还是改回来吧。在日志开头注明:“天朝网速伤不起,友情提示自觉移步到https://bnuzhutao.cn/archives/813“,就更好

]]>
作者:Mucid https://bnuzhutao.cn/archives/813#comment-1588 Wed, 14 Dec 2011 13:01:23 +0000 http://bnuzt.org/?p=813#comment-1588 回复给billzt

@billzt, C语言是打个括号吧,system(pause) //和windows下的 system(pause) 效果不同

]]>
作者:billzt https://bnuzhutao.cn/archives/813#comment-1587 Wed, 14 Dec 2011 12:59:09 +0000 http://bnuzt.org/?p=813#comment-1587 回复给Mucid

@Mucid, 哈哈,这是调用系统命令吧,好多语言也应该能够做到

]]>
作者:Mucid https://bnuzhutao.cn/archives/813#comment-1586 Wed, 14 Dec 2011 12:57:22 +0000 http://bnuzt.org/?p=813#comment-1586 www perl好方便 wget -O :mrgreen:

]]>