如何使用Python Entrez库高效筛选并下载PubMed文献摘要?
- 内容介绍
- 文章标签
- 相关推荐
本文共计903个文字,预计阅读时间需要4分钟。
作者:xiaolanLin声明:本文版权归作者和博客园共有来源网址:https://www.cnblogs.com/xiaolan-Lin一个不是生物学儿子的孩子来搞生物,当真是变成了一块废铁啊!但也是让我体会到了一把生物。
作者:xiaolanLin
声明 :本文版权归作者和博客园共有,来源网址:www.cnblogs.com/xiaolan-Lin
一个不是学生物的孩子来搞生物,当真是变成了一块废铁啊,但也是让我体会到了一把生物信息的力量。
废话不多说,开整!
任务:快速高效从PubMed上下载满足条件的文献PMID、标题(TI)、摘要(AB)。
PubMed官网 pubmed.ncbi.nlm.nih.gov
此处有几种选择可以达到目的:
(1)官网上匹配筛选条件(注:匹配快速,但是下载下来的数量受到限制,每次只能下载10000条数据,甚至更少。)
可以看到,我需要的数据是有三十多万条,但是每次只能下载10000条,那我岂不是要手动n次。。很明显,在大批量下载文献的情况下,官网不是很友好。
本文共计903个文字,预计阅读时间需要4分钟。
作者:xiaolanLin声明:本文版权归作者和博客园共有来源网址:https://www.cnblogs.com/xiaolan-Lin一个不是生物学儿子的孩子来搞生物,当真是变成了一块废铁啊!但也是让我体会到了一把生物。
作者:xiaolanLin
声明 :本文版权归作者和博客园共有,来源网址:www.cnblogs.com/xiaolan-Lin
一个不是学生物的孩子来搞生物,当真是变成了一块废铁啊,但也是让我体会到了一把生物信息的力量。
废话不多说,开整!
任务:快速高效从PubMed上下载满足条件的文献PMID、标题(TI)、摘要(AB)。
PubMed官网 pubmed.ncbi.nlm.nih.gov
此处有几种选择可以达到目的:
(1)官网上匹配筛选条件(注:匹配快速,但是下载下来的数量受到限制,每次只能下载10000条数据,甚至更少。)
可以看到,我需要的数据是有三十多万条,但是每次只能下载10000条,那我岂不是要手动n次。。很明显,在大批量下载文献的情况下,官网不是很友好。

