Python利用USDA API获取完整营养数据:深度解析分页机制

Python利用USDA API获取完整营养数据:深度解析分页机制

本教程旨在解决使用USDA食品数据中心(FDC)API时遇到的数据分页限制问题,特别是默认仅返回50条结果的情况。文章将详细解释API分页机制,并通过Python代码示例演示如何有效地利用pageSize和pageNumber参数,结合请求会话和错误处理,实现完整数据集的迭代获取与处理,最终导出至Excel。

1. 理解USDA FDC API的分页机制

在使用任何外部api时,查阅其官方文档是至关重要的一步。对于usda食品数据中心(fdc)api,当您通过foods/search端点查询数据时,可能会发现每次请求默认只返回50条结果,即使符合条件的数据远超此数量。这是因为api采用了分页(pagination)机制来管理大量数据的传输。

API响应中通常会包含以下关键信息,指示分页状态:

currentPage: 当前页码。totalPages: 总页数。pageSize: 每页返回的结果数量(默认为50)。

API文档明确指出,pageSize参数的默认值为50,但最大可以设置为200。同时,可以通过pageNumber参数指定要获取的页码。这意味着要获取所有符合条件的数据,我们需要执行一系列请求,每次请求不同的页码,直到所有页面都被遍历。

2. 实现完整数据获取的策略

为了克服50条结果的限制并获取完整数据集,我们需要采取以下策略:

设置pageSize参数: 在初始请求中,将pageSize设置为API允许的最大值(例如200),以减少总的请求次数。获取总页数: 发送第一个请求后,从API响应中提取totalPages字段的值。迭代请求: 从第二页开始,循环遍历到totalPages,每次请求时更新pageNumber参数。累积数据: 将每次请求返回的数据累加到一个列表中。错误处理: 在请求过程中加入适当的错误处理机制,以应对网络问题或API响应异常。使用requests.Session: 对于多次向同一主机发出的请求,使用requests.Session可以提高效率,因为它会重用底层的TCP连接。

3. Python代码实现:迭代获取USDA营养数据

以下是一个优化后的Python函数,它封装了上述策略,能够从USDA FDC API完整地获取指定食物的营养数据。

立即学习“Python免费学习笔记(深入)”;

import requestsimport jsonimport pandas as pdimport time # 引入time模块用于模拟请求间隔def get_all_food_data(query_name: str, api_key: str, max_page_size: int = 200) -> list:    """    通过USDA FDC API获取指定查询名称的所有食品数据,处理分页。    Args:        query_name (str): 查询的食物名称,例如 'raw'。        api_key (str): 您的USDA API密钥。        max_page_size (int): 每页最大结果数,默认为200。    Returns:        list: 包含所有食品数据的列表,每个元素是一个字典。              如果获取失败,返回None。    """    all_foods = []    base_url = "https://api.nal.usda.gov/fdc/v1/foods/search"    # 使用requests.Session来重用TCP连接,提高效率    with requests.Session() as session:        # 构建初始请求URL,设置最大pageSize        initial_url = f"{base_url}?api_key={api_key}&query={query_name}&pageSize={max_page_size}"        try:            print(f"开始获取 '{query_name}' 的数据...")            # 发送第一个请求以获取总页数和第一页数据            response = session.get(initial_url, timeout=15)            response.raise_for_status()  # 检查HTTP响应状态码,如果不是200,则抛出异常            api_response_json = response.json()            # 检查API响应中是否存在'foods'键            if 'foods' not in api_response_json or not api_response_json['foods']:                print(f"未找到 '{query_name}' 的食品数据或API响应格式异常。")                return []            all_foods.extend(api_response_json["foods"])            total_pages = api_response_json.get("totalPages", 1)            print(f"总共找到 {api_response_json.get('totalHits', 0)} 条结果,分布在 {total_pages} 页。")            # 从第二页开始循环获取所有剩余页面            for page_num in range(2, total_pages + 1):                page_url = f"{initial_url}&pageNumber={page_num}"                print(f"正在获取第 {page_num}/{total_pages} 页数据...")                # 建议在每次请求之间添加短暂的延迟,以避免API限流                time.sleep(0.1)                 page_response = session.get(page_url, timeout=15)                page_response.raise_for_status()                page_api_response_json = page_response.json()                if 'foods' in page_api_response_json:                    all_foods.extend(page_api_response_json["foods"])                else:                    print(f"警告:第 {page_num} 页API响应中未包含 'foods' 键。")        except requests.exceptions.HTTPError as http_err:            print(f"HTTP错误发生: {http_err} - URL: {response.url}")            return None        except requests.exceptions.ConnectionError as conn_err:            print(f"连接错误发生: {conn_err}")            return None        except requests.exceptions.Timeout as timeout_err:            print(f"请求超时: {timeout_err}")            return None        except requests.exceptions.RequestException as req_err:            print(f"请求发生未知错误: {req_err}")            return None        except json.JSONDecodeError as json_err:            print(f"JSON解析错误: {json_err} - 响应内容: {response.text[:200]}...")            return None        except Exception as e:            print(f"发生意外错误: {e}")            return None    print(f"成功获取所有 {len(all_foods)} 条食品数据。")    return all_foods# --- 使用示例 ---if __name__ == "__main__":    YOUR_API_KEY = "YOUR_USDA_API_KEY"  # 替换为您的实际API密钥    SEARCH_QUERY = "apple"  # 替换为您想查询的食物    # 1. 调用函数获取所有食品数据    food_items = get_all_food_data(SEARCH_QUERY, YOUR_API_KEY)    if food_items:        # 2. 将获取到的数据转换为Pandas DataFrame        table_data = []        for food_item in food_items:            row = {                "Description": food_item.get("description", "N/A"),                "FDC_ID": food_item.get("fdcId", "N/A")            }            # 提取营养成分,注意有些食品可能没有所有营养成分            for nutrient in food_item.get("foodNutrients", []):                nutrient_name = nutrient.get("nutrientName")                value = nutrient.get("value")                if nutrient_name and value is not None:                    row[nutrient_name] = value            table_data.append(row)        df = pd.DataFrame(table_data)        # 3. 导出到Excel        output_filename = f'{SEARCH_QUERY}_nutritional_facts.xlsx'        try:            df.to_excel(output_filename, index=False)            print(f"数据已成功导出到 '{output_filename}'")            print(f"DataFrame的最后一行数据:n{df.iloc[-1]}")        except Exception as e:            print(f"导出Excel失败: {e}")    else:        print("未能获取食品数据,无法生成Excel文件。")

代码说明:

get_all_food_data 函数:接收 query_name(查询关键词)和 api_key 作为参数。使用 requests.Session() 创建一个会话对象,以优化连续请求。构建基础URL,并首次请求时将 pageSize 设置为 max_page_size(默认为200)。通过 response.raise_for_status() 检查HTTP响应状态,如果不是2xx,则抛出 HTTPError。从第一个响应中提取 totalPages。使用 for 循环从第2页迭代到 totalPages,每次请求时通过 pageNumber 参数指定页码。all_foods.extend() 用于将每一页获取到的食品数据追加到 all_foods 列表中。错误处理: 使用 try-except 块捕获 requests 库可能抛出的各种异常(如 HTTPError, ConnectionError, Timeout 等),增强代码的健壮性。API限流考虑: 尽管USDA API文档未明确提及严格的速率限制,但在循环请求中添加 time.sleep(0.1) 是一种良好的实践,可以避免因请求过快而被服务器暂时阻止。数据处理与导出:if __name__ == “__main__”: 块展示了如何调用 get_all_food_data 函数。获取到 food_items 列表后,通过遍历列表,将每个食品的描述和营养成分组织成字典,然后添加到 table_data 列表中。使用 pandas.DataFrame(table_data) 将列表转换为DataFrame。最后,df.to_excel(output_filename, index=False) 将DataFrame导出为Excel文件,index=False 避免将DataFrame的索引写入Excel。

4. 注意事项与最佳实践

API Key安全: 永远不要在公开代码库中直接硬编码您的API密钥。在实际应用中,应将其存储在环境变量、配置文件或秘密管理服务中。错误处理: 示例代码中包含了基本的错误处理,但在生产环境中,您可能需要更详细的日志记录、重试机制或用户友好的错误提示。数据结构变化: API响应的数据结构可能会随着版本更新而变化。在处理 foodNutrients 时,建议使用 get() 方法安全地访问字典键,以防止因键不存在而引发错误。API限流: 尽管在示例中加入了 time.sleep(),但如果您的应用程序需要处理大量请求,应仔细查阅API文档关于速率限制(Rate Limiting)的规定,并相应地调整请求间隔或采用令牌桶等限流策略。数据清洗: 从API获取的原始数据可能需要进一步的清洗和标准化,例如处理缺失值、统一单位等,这通常在Pandas DataFrame创建之后进行。

5. 总结

通过本教程,我们深入理解了USDA FDC API的分页机制,并学习了如何通过Python编写健壮的代码来完整地获取所有符合条件的营养数据。核心在于利用API提供的 pageSize 和 pageNumber 参数进行迭代请求,同时结合 requests.Session 提高效率,并加入全面的错误处理。掌握这一技巧,您将能够更有效地从分页API中提取所需的所有信息,为后续的数据分析和应用打下坚实基础。

以上就是Python利用USDA API获取完整营养数据:深度解析分页机制的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1369077.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 09:20:28
下一篇 2025年12月14日 09:20:44

相关推荐

  • 掌握USDA食品数据API分页获取完整营养信息教程

    本教程详细介绍了如何通过Python有效地从USDA食品数据API获取完整的营养事实数据。针对API默认返回结果受限(如50条)的问题,文章深入探讨了API分页机制,并提供了利用pageSize和pageNumber参数迭代获取所有数据项的解决方案。教程包含示例代码、错误处理和最佳实践,旨在帮助开发…

    2025年12月14日
    000
  • 深入理解与实现USDA FDC API数据分页获取

    本文旨在解决通过Python API获取USDA FDC营养数据时遇到的结果限制问题。我们将详细讲解API分页机制,介绍如何利用pageSize和pageNumber参数,并通过迭代请求实现完整数据集的检索,确保用户能够高效、准确地获取所有目标数据。 1. 理解API分页机制 在使用第三方API时,…

    2025年12月14日
    000
  • 计算图像像素平均亮度时出现不一致问题的解决方案

    本文旨在解决在使用OpenCV计算不同图像像素平均亮度时出现不一致的问题。通过分析问题代码,并结合实际案例,提供了一种更准确的计算图像平均亮度的方法,重点在于使用 cv2.imread 正确加载图像,并利用 numpy 提供的 mean() 函数进行计算,避免了潜在的类型转换和溢出问题。 在图像处理…

    2025年12月14日
    000
  • Python中字典怎么遍历 Python中字典遍历教程

    遍历字典默认是遍历键,可用.values()遍历值,.items()遍历键值对;遍历时修改字典会报错,应先复制键或用推导式生成新字典;大型字典推荐直接使用.keys()、.values()、.items()获取视图对象以节省内存;Python 3.7+字典有序,3.6及以前无序,需顺序时用Order…

    2025年12月14日
    000
  • python怎么读取csv文件_python数据处理基础教程

    首选pandas库读取CSV文件,因其功能强大且操作高效,适合数据分析;对于简单行操作,可使用内置csv模块,更加轻量灵活。 Python处理CSV文件,最直接也最常用的方式就是借助`pandas`库。它提供了一套高效且功能强大的工具集,能让你轻松地读取、操作和分析CSV数据。当然,如果只是简单的行…

    2025年12月14日
    000
  • 多算法聚类结果的合并策略与SQL实现:基于连通分量的传递闭包方法

    本文探讨了如何合并来自不同聚类算法、但作用于同一数据集的聚类结果。当不同算法的集群通过共享相同数据项而存在重叠时,需要将这些重叠集群进行传递性合并。文章将阐述此问题本质上是图论中的连通分量发现,并提供基于SQL和Python/PySpark的解决方案,重点讲解其逻辑、实现步骤及注意事项,以生成统一的…

    2025年12月14日
    000
  • Django模型中高效动态获取关联字段值并构建字典

    本教程详细阐述了在Django中如何高效地从主模型动态获取所有通过ForeignKey关联的子模型的特定字段值,并将其组织成一个结构化字典。通过利用ReverseManyToOneDescriptor进行模型内省,并结合在关联模型中自定义dump方法,我们能够自动化数据聚合过程,避免繁琐的手动查询,…

    2025年12月14日
    000
  • Django模型关联数据动态提取与字典化:构建通用数据导出方法

    本教程旨在解决Django中从主模型动态高效地获取所有反向关联模型数据并将其组织成字典的挑战。通过利用模型自省机制识别反向外键,并结合关联模型上定义的统一数据提取方法,我们能够自动化地收集和格式化相关数据,避免手动编写大量重复查询代码,从而提高代码的简洁性和可维护性。 在django应用开发中,当一…

    2025年12月14日
    000
  • 高效获取UniProt数据库条目ID:应对动态加载与API应用实践

    本教程旨在解决从UniProt网站抓取条目ID时,因页面内容动态加载导致传统BeautifulSoup解析失败的问题。我们将深入分析失败原因,并提供一个更稳定、高效的解决方案:利用UniProt官方REST API直接获取所需数据,避免复杂的网页解析,确保数据提取的准确性和可靠性。 网页动态加载内容…

    2025年12月14日
    000
  • 高效获取Django关联模型数据字典:元编程与自定义方法

    本教程旨在解决如何高效地从Django父模型实例中,动态收集其所有关联模型(通过ForeignKey反向引用)的特定字段值,并将其整合到一个简洁的字典中。我们将通过利用Python的元编程技术来识别反向外键关系,并结合关联模型上的自定义方法来提取所需数据,从而避免手动逐一查询的繁琐与低效。 引言:高…

    2025年12月14日
    000
  • UniProt动态内容抓取:利用REST API高效获取生物序列条目ID教程

    本教程旨在解决从UniProt数据库动态加载页面抓取条目ID的常见问题。当传统的requests和BeautifulSoup组合无法获取JavaScript渲染的数据时,文章详细介绍了如何利用UniProt官方提供的REST API进行高效、可靠的数据提取。通过实例代码,演示了查询特定条目和模拟下载…

    2025年12月14日
    000
  • Django模型反向关联数据高效字典化教程

    本教程详细阐述了如何在Django中高效地将主模型的所有反向关联模型数据聚合到一个字典中。通过利用ReverseManyToOneDescriptor动态识别反向外键关系,并结合相关模型自定义的dump方法,我们能够自动化地提取指定字段的值,从而避免手动查询每个关联模型,极大地提升了数据获取的灵活性…

    2025年12月14日
    000
  • Python中复杂数据结构属性变更的级联更新机制

    本文探讨了在Python中,当复杂嵌套对象内部属性发生变化时,如何实现上层派生数据结构的自动更新。通过引入分层更新策略,结合@property装饰器和显式更新方法,构建了一个能够响应内部对象状态变化的级联更新机制,避免了手动调用更新方法的繁琐,提升了代码的健壮性和可维护性。 理解问题:为何属性变更未…

    2025年12月14日
    100
  • Python面向对象设计:管理嵌套对象属性变化与自动更新机制

    本文探讨了在Python中处理复杂嵌套对象结构时,如何确保当内部对象属性发生变化时,外部聚合对象能够自动感知并更新其状态。通过分析一个DataFrame构建器的实际案例,我们将展示如何利用显式更新方法和分层设计,实现高效、可维护的数据同步机制,避免手动触发更新的繁琐。 问题背景:嵌套对象属性变化的挑…

    2025年12月14日
    000
  • 图像平均亮度计算不一致性解析与Numpy优化实践

    本文旨在解决图像处理中计算平均亮度时出现的数值不一致问题。通过分析原始代码中手动计算平均值及处理零像素的策略,我们发现利用Numpy数组内置的mean()方法能显著简化代码、提高计算准确性和效率。本教程将详细介绍如何采用更简洁、可靠的方式计算图像的平均亮度,并提供优化后的代码示例及最佳实践建议。 图…

    2025年12月14日
    000
  • Python函数设计:避免循环引用与提升模块化

    本文探讨了Python函数设计中常见的循环引用问题,尤其是在GUI应用中计算总价、税费和服务费的场景。通过分析一个RecursionError案例,我们展示了如何通过参数传递和函数职责分离来重构代码,有效避免无限递归,提升代码的可读性、可维护性和模块化程度。 Python函数设计与循环引用问题解析 …

    2025年12月14日
    000
  • Python如何读取csv文件_Python读取csv文件方法总结

    使用csv模块和pandas是Python读取CSV文件最常用的方法;csv适合基础逐行处理,pandas则擅长高效的数据分析与大规模操作,结合二者可应对绝大多数场景。 Python读取CSV文件,最常用且高效的方式莫过于使用内置的 csv 模块,它提供了基础而强大的解析能力,尤其适合处理结构相对简…

    2025年12月14日
    000
  • python怎么字符串拼接_python多种字符串连接方式

    Python字符串拼接应根据场景选择方法:f-string适用于变量嵌入和格式化,.join()适合高效连接大量字符串,避免在循环中使用+操作符以防止性能问题。 Python中拼接字符串的方式远不止一种,从最直观的 + 操作符,到高效的 .join() 方法,再到现代且强大的f-string,以及传…

    2025年12月14日
    000
  • 解决Python递归深度限制:函数调用栈溢出问题

    本文针对Python中常见的RecursionError: maximum recursion depth exceeded错误,提供了一种清晰的解决方案。该错误通常发生在函数内部调用自身,导致无限循环并最终耗尽调用栈空间。通过修改代码结构,避免函数间的循环调用,并正确传递参数,可以有效解决该问题,…

    2025年12月14日
    000
  • Python中正则表达式怎么用 Python中正则表达式指南

    Python中正则表达式通过re模块实现,核心函数包括re.search、re.match、re.findall、re.sub和re.compile,配合原始字符串r””避免转义问题,可高效处理文本匹配、查找、替换与分割。 Python中正则表达式的使用,核心在于利用其内置的…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信