Kedro与Streamlit集成:动态数据目录在Web应用中的高效实践

Kedro与Streamlit集成:动态数据目录在Web应用中的高效实践

本文深入探讨了如何在streamlit应用中无缝集成kedro数据管道,并动态传递自定义datacatalog。我们将分析常见的集成误区,特别是关于kedrosession和kedrocontext中datacatalog和pipeline_registry属性的错误使用,并提供一个清晰、可操作的解决方案,以实现streamlit加载数据后,通过内存数据集高效运行kedro管道,从而构建灵活的数据处理web应用。

Kedro与Streamlit集成的核心挑战

在构建数据驱动的Web应用时,将Streamlit的交互式前端与Kedro的强大数据管道后端结合是一种常见且高效的模式。然而,当需要在Streamlit中动态加载数据(例如通过文件上传),并将其作为输入传递给Kedro管道进行处理时,会遇到一些挑战。核心问题在于如何将Streamlit中已加载的Pandas DataFrame等内存数据,封装成Kedro可识别的DataCatalog,并在不修改Kedro项目配置的情况下,将其注入到管道执行流程中。

常见的需求场景包括:

用户通过Streamlit上传CSV或Excel文件。Streamlit将这些文件读取为Pandas DataFrame。需要将这些DataFrame作为输入,运行一个或多个Kedro管道。Kedro管道处理完成后,将结果返回给Streamlit进行展示或进一步操作。

常见错误与原因分析

在尝试将自定义DataCatalog传递给Kedro管道时,开发者可能会遇到以下几种AttributeError或TypeError:

AttributeError: can’t set attribute ‘catalog’这个错误通常发生在尝试直接修改KedroSession或KedroContext的catalog属性时,例如 context.catalog = custom_catalog。原因分析:在较新版本的Kedro中,KedroSession.catalog以及从session.load_context()获取到的context.catalog通常是只读的,或者不应通过直接赋值的方式来动态替换。Kedro设计其内部组件时,强调配置的不可变性,以确保管道执行的一致性和可预测性。

AttributeError: ‘KedroContext’ object has no attribute ‘pipeline_registry’这个错误表明尝试访问KedroContext对象上不存在的pipeline_registry属性。原因分析:KedroContext对象从未直接拥有名为pipeline_registry的属性。管道的注册和获取通常通过KedroSession或项目内部的机制来管理,而不是直接暴露在KedroContext上。

TypeError: KedroSession.run() got an unexpected keyword argument ‘extra_params’这个错误通常与session.run()方法的参数变化有关。原因分析:KedroSession.run()方法的签名可能会在不同Kedro版本中发生变化。extra_params参数在某些旧版本中可能用于传递额外的运行时参数,但在新版本中可能已被移除或替换为其他参数(如config_params)。因此,使用过时的参数会导致TypeError。

正确集成方案:动态DataCatalog的传递

解决上述问题的关键在于理解KedroSession.run()方法的设计意图,并利用其提供的data_catalog参数来注入自定义的DataCatalog。

核心思想:在Streamlit中加载数据后,将这些数据封装成Kedro的MemoryDataSet,然后组合成一个临时的DataCatalog实例。最后,在调用KedroSession.run()时,通过data_catalog参数将这个自定义的DataCatalog传递进去。这样,Kedro管道在执行时会优先使用这个自定义的DataCatalog来查找输入数据,而不是默认的conf/base/catalog.yml中定义的数据集。

步骤一:在Streamlit中加载数据并创建MemoryDataSet

首先,在Streamlit应用中实现文件上传和数据加载逻辑,然后将加载的Pandas DataFrame封装成MemoryDataSet。MemoryDataSet是Kedro提供的一种特殊数据集,用于处理内存中的数据,而无需将其写入磁盘。

import streamlit as stimport pandas as pdfrom kedro.io import DataCatalog, MemoryDataSetfrom kedro.framework.session import KedroSessionimport os# 假设Kedro项目根目录的路径# 请根据实际情况修改此路径,确保Streamlit应用可以访问到Kedro项目KEDRO_PROJECT_PATH = os.path.abspath("./my_kedro_project") st.set_page_config(layout="wide")st.title("Kedro管道与动态数据集成示例")st.markdown("""本应用演示了如何通过Streamlit上传数据,并将其作为自定义DataCatalog传递给Kedro管道进行处理。""")# Streamlit文件上传器st.header("1. 上传输入数据")uploaded_file_1 = st.file_uploader("上传第一个CSV文件 (例如: reagentes_raw.csv)", type=["csv"])uploaded_file_2 = st.file_uploader("上传第二个CSV文件 (例如: balanco_de_massas_raw.csv)", type=["csv"])df1, df2 = None, Noneif uploaded_file_1:    df1 = pd.read_csv(uploaded_file_1)    st.success("文件 'reagentes_raw' 加载成功!")    st.subheader("reagentes_raw 数据预览:")    st.dataframe(df1.head())if uploaded_file_2:    df2 = pd.read_csv(uploaded_file_2)    st.success("文件 'balanco_de_massas_raw' 加载成功!")    st.subheader("balanco_de_massas_raw 数据预览:")    st.dataframe(df2.head())# 运行Kedro管道的按钮st.header("2. 运行Kedro管道")if st.button('处理数据') and df1 is not None and df2 is not None:    if not os.path.exists(KEDRO_PROJECT_PATH):        st.error(f"错误:Kedro项目路径不存在或不正确。请检查路径: {KEDRO_PROJECT_PATH}")        st.stop()    with st.spinner('正在执行Kedro管道...'):        try:            # 1. 创建自定义DataCatalog,使用MemoryDataSet封装DataFrame            # 这里的键名 (例如 "reagentes_raw", "balanco_de_massas_raw")             # 必须与你的Kedro管道中定义的输入数据集名称一致。            custom_catalog = DataCatalog({                "reagentes_raw": MemoryDataSet(df1),                "balanco_de_massas_raw": MemoryDataSet(df2),                # 如果有更多数据集,按此模式添加            })            # 2. 初始化KedroSession并运行指定的管道            # 确保 'my_kedro_pipeline' 是你Kedro项目中实际定义的管道名称            with KedroSession.create(project_path=KEDRO_PROJECT_PATH) as session:                # 通过 data_catalog 参数传入自定义的 DataCatalog                session.run(pipeline_name="my_kedro_pipeline", data_catalog=custom_catalog)            st.success('Kedro管道执行成功!')            # 3. 从自定义catalog中加载管道输出结果            # 假设管道输出一个名为 "processed_output_data" 的数据集            # 这个数据集也必须被定义为MemoryDataSet在custom_catalog中            if "processed_output_data" in custom_catalog.list():                processed_data = custom_catalog.load("processed_output_data")                st.header('3. 管道处理结果:')                st.dataframe(processed_data.head())                st.download_button(                    label="下载处理后的数据 (CSV)",                    data=processed_data.to_csv(index=False).encode('utf-8'),                    file_name="processed_output.csv",                    mime="text/csv",                )            else:                st.warning("Kedro管道未将 'processed_output_data' 存储回自定义DataCatalog。请检查管道配置。")        except Exception as e:            st.error(f"运行Kedro管道时发生错误: {e}")            st.exception(e)

步骤二:Kedro项目配置(示例)

为了使上述Streamlit应用能够成功运行,你需要有一个相应的Kedro项目。以下是一个简化的Kedro项目结构和管道示例,以匹配Streamlit代码中的数据集名称:

项目结构:

my_kedro_project/├── conf/│   └── base/│       └── catalog.yml  # 可以为空或定义其他持久化数据集│       └── parameters.yml├── src/│   └── my_kedro_project/│       ├── __init__.py│       ├── pipeline_registry.py│       └── pipelines/│           └── my_kedro_pipeline/│               ├── __init__.py│               ├── nodes.py│               └── pipeline.py└── pyproject.toml

src/my_kedro_project/pipelines/my_kedro_pipeline/nodes.py 示例:

import pandas as pddef merge_and_process_data(df_reagentes: pd.DataFrame, df_balanco: pd.DataFrame) -> pd.DataFrame:    """    一个简单的节点函数,用于合并并处理两个输入DataFrame。    """    st.write("Kedro节点:正在合并数据...")    # 假设这两个DataFrame有一个共同的键 'id' 用于合并    # 实际项目中,你需要根据数据结构调整合并逻辑    merged_df = pd.merge(df_reagentes, df_balanco, on='id', how='inner', suffixes=('_reag', '_bal'))    # 进行一些简单的处理    merged_df['calculated_value'] = merged_df['value_reag'] * merged_df['value_bal']    return merged_df# 注意:为了让Streamlit的st.write在Kedro节点中可见,你可能需要一些高级的日志捕获或回调机制。# 在标准的Kedro执行中,st.write不会直接输出到Streamlit前端。# 这里仅为示例,表明节点内部的逻辑。

src/my_kedro_project/pipelines/my_kedro_pipeline/pipeline.py 示例:

from kedro.pipeline import Pipeline, nodefrom .nodes import merge_and_process_datadef create_pipeline(**kwargs) -> Pipeline:    """    创建并注册 'my_kedro_pipeline'。    输入数据集名称 ('reagentes_raw', 'balanco_de_massas_raw')     必须与Streamlit中自定义DataCatalog的键名一致。    输出数据集名称 ('processed_output_data')     也应在自定义DataCatalog中被预期。    """    return Pipeline(        [            node(                func=merge_and_process_data,                inputs=["reagentes_raw", "balanco_de_massas_raw"],                outputs="processed_output_data",                name="merge_and_process_node",            ),        ]    )

src/my_kedro_project/pipeline_registry.py 示例:

from typing import Dict, Anyfrom kedro.pipeline import Pipelinefrom kedro.framework.project import find_pipelinesdef register_pipelines() -> Dict[str, Pipeline]:    """    注册项目的管道。    """    pipelines = find_pipelines()    # 注册你的管道,并将其设置为默认管道    pipelines["__default__"] = pipelines["my_kedro_pipeline"]    return pipelines

注意事项与最佳实践

Kedro版本兼容性:KedroSession.run()方法的参数可能随Kedro版本更新而变化。始终查阅你所使用的Kedro版本的官方文档,以确保参数的正确性。数据持久化输入数据:如果Streamlit上传的数据量较大,或者需要在多次运行之间保持不变,可以考虑先将上传数据保存到临时文件(如Parquet),然后在Kedro管道的catalog.yml中定义相应的ParquetDataSet。但对于动态、一次性的内存数据,MemoryDataSet是更简洁的选择。输出数据:如果管道的输出需要持久化,可以在Kedro管道内部定义一个ParquetDataSet或CSVDataSet来将结果写入磁盘。或者,如示例所示,从自定义DataCatalog中加载结果MemoryDataSet后,在Streamlit中手动将其保存或提供下载。错误处理与日志:在Streamlit应用中,务必使用try-except块捕获KedroSession.run()可能抛出的异常,并使用st.error()和st.exception()向用户提供友好的错误提示和详细的堆信息。Kedro项目路径:确保Streamlit应用能够正确找到KEDRO_PROJECT_PATH。在部署时,这可能意味着需要将Kedro项目作为子目录包含在Streamlit应用中,或者通过环境变量动态配置路径。管道设计:设计Kedro管道时,输入数据集的名称(例如reagentes_raw)应与你在Streamlit中创建DataCatalog时使用的键名保持一致。这样,`session.run(data

以上就是Kedro与Streamlit集成:动态数据目录在Web应用中的高效实践的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1379770.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 20:56:15
下一篇 2025年12月14日 20:56:29

相关推荐

  • Python网页版怎样做后台管理_Python网页版后台管理系统开发教程

    推荐从Django开始开发Python网页版后台管理系统,1. 使用Django自带admin模块可快速搭建基础后台;2. 定义数据模型并注册到admin,通过makemigrations和migrate生成数据库结构;3. 创建超级用户后即可登录管理界面;4. 在admin.py中自定义列表展示、…

    2025年12月14日
    000
  • Python描述符中的属性命名冲突与递归陷阱

    本文深入探讨了python描述符在使用过程中可能遇到的一个常见陷阱:当描述符管理的实例属性与描述符本身在类中定义的名称相同时,会导致无限递归。文章通过详细的代码示例,解释了描述符协议的工作原理,揭示了递归发生的原因,并提供了使用不同内部属性名来规避此问题的最佳实践,旨在帮助开发者正确理解和应用pyt…

    2025年12月14日
    000
  • Python多线程内存共享方案 Python多线程共享内存的几种方式

    Python多线程内存共享方式包括:1. 全局变量配合Lock确保线程安全,适用于简单数据共享;2. queue.Queue实现线程安全通信,适合生产者-消费者模型;3. threading.local为线程提供独立数据副本,避免状态冲突;4. multiprocessing.shared_memo…

    2025年12月14日 好文分享
    000
  • 高效地将变长列表数据整合到Pandas DataFrame

    本文旨在提供一种高效且避免DataFrame碎片化的方法,将包含不同长度子列表的数据以及对应的列名列表整合到现有的Pandas DataFrame中。我们将利用Python的`itertools.zip_longest`函数处理变长数据,并通过巧妙的转置与字典构建,最终使用`pd.concat`将新…

    2025年12月14日
    000
  • 实现Angular-Flask应用中的用户数据个性化功能

    本教程详细介绍了如何在Angular前端与Flask后端应用中构建用户数据个性化功能,以展示用户专属的汽车租赁预订信息。内容涵盖了从后端会话管理和用户ID传递,到前端服务层的数据获取与组件渲染的完整流程,并纠正了在用户登录后未能正确将用户ID传递至前端的关键问题,确保用户只能查看自己的预订记录。 在…

    2025年12月14日
    000
  • Python3安装后怎么设置编码_Python3默认编码设置与修改方法

    Python3默认使用UTF-8编码,可通过sys.getdefaultencoding()查看,默认源码文件需以UTF-8保存并添加# — coding: utf-8 –声明,运行时可借助locale、io模块或环境变量PYTHONIOENCODING调整编码行为。 Pyt…

    2025年12月14日
    000
  • 自定义Python对象在REPL中的显示行为

    本文探讨了如何在python交互式环境中为特定对象提供不同于标准`__repr__`的调试友好显示。通过覆盖`sys.displayhook`,开发者可以精细控制对象在repl中作为表达式被求值时的输出格式,从而在不影响对象可组合性的前提下,展示丰富的调试信息。 在Python开发中,__repr_…

    2025年12月14日
    000
  • Python模块导入深度解析:理解包结构与执行上下文

    本文深入探讨python在跨目录导入模块时常见的`importerror`问题,详细阐述了通过构建合理的包结构、区分顶级包与子包、以及正确设置脚本的执行上下文来有效解决这些导入冲突。文章将提供具体的代码示例和最佳实践,帮助开发者理解python的模块搜索机制,从而避免常见的导入陷阱。 在Python…

    2025年12月14日
    000
  • Python入门如何绘制基础图表_Python入门数据可视化的第一步

    答案:使用Python绘图库可直观呈现数据趋势与分布。一、Matplotlib绘制折线图需导入pyplot模块,设置中文字体,准备数据后调用plt.plot()并添加标题标签,最后显示图像。二、绘制柱状图时用plt.bar()或plt.barh()展示类别数据差异,添加坐标轴标签并旋转x轴标签防重叠…

    2025年12月14日
    000
  • Python从大型文件高效随机选取固定长度单词教程

    本教程旨在解决从大型文件中高效随机选取固定长度单词的问题,避免将整个文件加载到内存中造成的性能和内存开销。我们将详细介绍如何利用python的文件指针定位(`f.seek()`)功能,结合随机数生成,直接跳转到文件中的特定位置并读取单词,同时强调该方法的适用条件、潜在限制及最佳实践。 在开发需要从大…

    2025年12月14日
    000
  • python使用loguru操作日志

    Loguru让Python日志更简单,无需复杂配置即可使用。导入logger后可直接输出调试、信息、警告、错误日志,默认控制台显示info及以上级别。通过logger.add()可将日志写入文件,支持按天轮转、保留策略和级别过滤。支持自定义格式,包含时间、级别、文件、行号等信息,并能用logger.…

    2025年12月14日
    000
  • Python调用API接口如何保存返回数据_Python调用API接口将返回数据保存到本地的方法

    答案:可通过保存为JSON、CSV、Excel文件、追加写入或数据库实现API数据持久化。首先用requests获取响应并检查状态码,解析为Python对象后,根据需求选择存储方式:结构化数据可序列化为.json文件;表格数据可用csv.DictWriter写入CSV;pandas.DataFram…

    2025年12月14日
    000
  • Python学习路线怎么规划_Python从入门到进阶学习路线图详解

    掌握Python需循序渐进:先学基础语法,如数据类型、流程控制;再深入函数与模块化编程;接着实践面向对象编程;然后掌握文件操作与异常处理;之后学习常用第三方库如requests、NumPy、Pandas和Matplotlib;最后通过实战项目如记账本、爬虫、博客系统等提升综合能力。 如果您希望系统地…

    2025年12月14日
    000
  • 如何为不同项目配置独立的Python环境变量_多项目Python环境变量隔离设置方法

    使用虚拟环境和.env文件实现Python多项目隔离:1. 用venv创建独立环境,避免包冲突;2. 通过python-dotenv加载项目专属环境变量,保护敏感信息;3. 在VS Code等IDE中指定解释器路径,确保运行时使用正确环境;4. 编写脚本自动化切换项目环境。每个项目独立配置env目录…

    2025年12月14日
    000
  • Python网页版如何实现邮件发送_Python网页版邮件自动发送功能开发教程

    使用Flask和Flask-Mail可实现网页邮件发送功能,需配置SMTP服务(如QQ邮箱)、创建表单并处理发送逻辑,注意安全措施如环境变量管理密码、输入校验及异步发送优化。 在Python网页应用中实现邮件发送功能,是许多项目(如用户注册验证、密码重置、通知提醒等)的常见需求。本文将介绍如何使用F…

    2025年12月14日
    000
  • Python入门的算法学习指南_Python入门算法基础的训练方法

    掌握Python算法需系统学习:先夯实数据结构与控制结构基础,熟练运用列表、字典及循环条件语句;接着实现冒泡排序、二分查找、斐波那契等经典算法,培养问题分解能力;通过LeetCode、HackerRank等平台持续刷题,提升实战能力;同时学习时间与空间复杂度分析,养成性能评估习惯;最后建立个人代码库…

    2025年12月14日
    000
  • Python多线程如何实现并发爬虫 Python多线程爬虫的性能优化策略

    Python多线程爬虫适用于I/O密集型任务,通过threading模块或ThreadPoolExecutor实现并发下载,结合队列管理任务、控制并发数、添加延时、复用连接并捕获异常,可提升抓取效率;对于更高并发,建议采用asyncio+aiohttp异步方案。 Python多线程在爬虫中主要用于处…

    2025年12月14日
    000
  • Python网络连接错误ConnectionError产生原因与解决方法

    ConnectionError通常因网络连接问题、目标服务器不可达、防火墙或代理限制、DNS解析失败、请求超时、SSL/TLS证书问题及并发过多导致,需逐步排查网络通路并配置合理重试与超时机制。 Python中出现ConnectionError通常表示程序在尝试与远程服务器建立网络连接时失败。这个异…

    2025年12月14日
    000
  • Python爬虫怎么入门_Python网络爬虫基础入门与实现步骤

    答案:Python爬虫通过安装requests和BeautifulSoup库发送请求并解析网页,提取数据后设置请求头和延时应对反爬,最终将数据保存为CSV等格式。 如果您希望获取网页上的公开数据,但手动复制效率低下,可以借助程序自动化完成。Python 作为一门语法简洁、库丰富的编程语言,非常适合用…

    2025年12月14日
    000
  • 如何用python绘制彩色蟒蛇

    首先导入turtle库并设置黑色背景画布,创建快速移动的画笔对象;接着定义彩虹色列表,通过循环使画笔每前进一段就改变颜色并右转45度,形成渐变螺旋蛇身;然后抬笔移动到指定位置绘制白色大圆点作为蛇头,并在其上添加黑色小圆点表示眼睛;最后隐藏海龟光标并保持画面显示,完成一条色彩绚丽、形态生动的蟒蛇图案。…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信