从UniProt数据库搜索结果中提取Entry ID的教程(搜索结果.提取.数据库.教程.UniProt...)

wufei123 发布于 2025-08-29 阅读(5)

从uniprot数据库搜索结果中提取entry id的教程

从UniProt数据库搜索结果中提取Entry ID的教程

如上文摘要所述,本文将指导读者如何从UniProt数据库的搜索结果页面中提取Entry ID。 许多现代网站,包括UniProt,使用JavaScript动态加载数据。这意味着你直接通过requests库获取的HTML内容可能不包含你想要抓取的信息,因为这些信息是在页面加载后通过JavaScript添加的。 因此,直接解析通过requests获取的HTML源代码可能无法找到目标数据。

问题分析

原始代码尝试使用requests和BeautifulSoup直接解析UniProt搜索结果页面的HTML。

import requests
from bs4 import BeautifulSoup

url = "https://www.uniprot.org/uniprotkb?query=wound+healing"
res = requests.get(url)
res.raise_for_status()
soup = BeautifulSoup(res.text, "html.parser")

links = soup.find_all("a", class_="BqBnJ")

uniprot_ids = [link.get_text(strip=True) for link in links]
for uniprot_id in uniprot_ids:
    print(uniprot_id)

这段代码的问题在于,UniProt网站使用JavaScript动态加载搜索结果。当你使用requests.get(url)时,你获取的是初始的HTML结构,其中不包含通过JavaScript加载的数据。因此,soup.find_all("a", class_="BqBnJ")返回的是一个空列表。

解决方案:模拟JavaScript请求

为了解决这个问题,我们需要找到UniProt网站用于加载数据的API端点,并使用requests库模拟这个请求。通过分析UniProt网站的网络请求,我们可以找到一个名为https://rest.uniprot.org/uniprotkb/search的API端点。

以下代码演示了如何使用这个API端点来获取Entry ID:

import requests

api_url = "https://rest.uniprot.org/uniprotkb/search"

params = {
    "fields": "accession,reviewed,id,protein_name,gene_names,organism_name,length",
    "query": "(wound healing)",
}

data = requests.get(api_url, params=params).json()

for r in data["results"]:
    print(r["primaryAccession"])

代码解释:

  1. api_url = "https://rest.uniprot.org/uniprotkb/search": 定义了UniProt API的URL。
  2. params: 定义了请求参数。
    • fields: 指定了要返回的字段,包括accession(Entry ID),reviewed,id,protein_name,gene_names,organism_name和length。
    • query: 定义了搜索查询,这里是"(wound healing)"。
  3. data = requests.get(api_url, params=params).json(): 使用requests.get()方法发送GET请求,并将返回的JSON数据解析为Python字典。
  4. for r in data["results"]:: 遍历结果列表。
  5. print(r["primaryAccession"]): 打印每个结果的primaryAccession,即Entry ID。

模拟“下载”按钮并保存为JSON

如果你需要获取所有结果并将其保存为JSON格式,你可以使用以下代码,它模拟了UniProt网站上的“下载”按钮的功能:

import requests

api_url = "https://rest.uniprot.org/uniprotkb/stream"

params = {
    "compressed": "false",
    "download": "true",
    "format": "json",
    "query": "(wound healing)",
}

data = requests.get(api_url, params=params).json()

# show all data:
# print(data)

for r in data["results"]:
    print(r["primaryAccession"])

代码解释:

  1. api_url = "https://rest.uniprot.org/uniprotkb/stream": 使用了不同的API端点,stream,用于下载数据。
  2. params: 定义了请求参数。
    • compressed: 设置为"false",表示不使用压缩。
    • download: 设置为"true",表示要下载数据。
    • format: 设置为"json",表示要以JSON格式下载数据。
    • query: 定义了搜索查询,这里是"(wound healing)"。
  3. data = requests.get(api_url, params=params).json(): 使用requests.get()方法发送GET请求,并将返回的JSON数据解析为Python字典。
  4. # print(data): 取消注释此行可以打印所有下载的数据。
  5. for r in data["results"]:: 遍历结果列表。
  6. print(r["primaryAccession"]): 打印每个结果的primaryAccession,即Entry ID。

注意事项

  • API Rate Limiting: UniProt API可能有速率限制。如果你的请求过于频繁,可能会被限制访问。请确保你的代码在短时间内不会发送过多的请求。你可以通过查看API文档来了解速率限制的详细信息。
  • Error Handling: 在实际应用中,你应该添加错误处理机制,例如使用try...except块来捕获requests.exceptions.RequestException异常,以便在请求失败时进行适当的处理。
  • User-Agent: 建议在请求头中设置User-Agent,以便让服务器知道你的请求来自哪个应用程序。这可以帮助服务器更好地了解你的使用情况,并可能避免被误认为是恶意机器人。

总结

本教程展示了如何从UniProt数据库的搜索结果页面中提取Entry ID,并避免了直接解析HTML的问题。通过模拟JavaScript请求,我们可以更高效、更准确地获取所需的数据。同时,我们还演示了如何模拟“下载”按钮,将所有结果保存为JSON格式。希望本教程能够帮助你更好地理解和应用网络数据抓取技术。

以上就是从UniProt数据库搜索结果中提取Entry ID的教程的详细内容,更多请关注知识资源分享宝库其它相关文章!

标签:  搜索结果 提取 数据库 

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。