
本文探讨了在pandas中处理特殊制表符分隔文件(tsv)的挑战,特别是当字段被双引号包围且内部包含未转义的双引号时。我们将介绍三种策略:利用python内置`csv`模块进行手动解析、实现自定义`decode/encode`函数以确保文件内容的精确往返,以及结合正则表达式预处理与pandas进行读写。旨在提供针对此类“非标准”tsv文件的稳健解决方案,确保数据完整性。
在数据处理中,我们经常会遇到格式不规范的文件。一个常见的场景是制表符分隔文件(TSV),其中每个字段都被双引号包围,但某些字段内容本身也包含双引号(例如,测量值5.00″)。当使用像Pandas这样的强大库读取此类文件时,其默认的解析机制可能会将这些内部双引号误认为是字段的结束或需要转义的字符,导致数据损坏。更具挑战性的是,有时我们不仅需要正确读取数据,还需要将其以与原始文件完全相同的“不规范”格式写回,以实现数据的精确往返(roundtrip)。
本文将针对这一问题,提供几种有效的解决方案,并详细解释其实现原理和适用场景。
问题剖析:Pandas默认行为的局限性
考虑以下示例数据 test.exp:
"HEADER" "ID" "Part Reference" "Value" "Part_Description""PARTOCC:17306" "17306" "M1" "48SL-5S-50-C-LF" "Series 48SL–5 WEDGE–LOK, 2-56UNC-2B, 5.00", chem film, lock washer and flat""PARTOCC:17310" "17310" "M2" "48SL-5S-50-C-LF" "Series 48SL–5 WEDGE–LOK, 2-56UNC-2B, 5.00", chem film, lock washer and flat""PARTOCC:65494" "65494" "J4E" "311P822-MC-095-BS-D" "GSFC CPCI J3 RA MALE 95 Position 0.123" tails"
注意 Part_Description 字段中嵌入的 5.00″ 和 0.123″ tails。如果直接使用 pd.read_csv 读取并用 df.to_csv 写回,你会发现 5.00″ 可能会变成 5.00″”,或者整个字段的解析出现问题。这是因为Pandas(以及标准的CSV/TSV解析器)通常遵循RFC 4180规范,该规范规定了如何处理带引号的字段和内部引号(通常通过双写引号或使用转义字符)。然而,原始文件并未遵循这一规范,导致了冲突。
解决方案一:使用Python csv 模块进行精细控制
Python内置的 csv 模块提供了更底层的控制,允许我们忽略标准的引用规则,然后手动处理字段。这种方法适用于你只想正确解析数据进行后续处理,而不强求写回时保持原始“不规范”格式的情况。
读取与解析
我们可以使用 csv.reader 并设置 quoting=csv.QUOTE_NONE 来指示解析器忽略所有引用,将双引号视为普通字符。之后,我们再手动去除每个字段开头和结尾的双引号。
import csvdef parse_tsv_with_embedded_quotes(filepath: str) -> list[list[str]]: """ 解析一个字段被双引号包围且内部可能包含未转义双引号的TSV文件。 该函数会手动去除每个字段的首尾双引号。 """ rows_data: list[list[str]] = [] with open(filepath, newline="", encoding='utf-8') as f: # 确保使用正确的编码 # 使用QUOTE_NONE,让csv模块不处理引号 reader = csv.reader(f, delimiter="", quoting=csv.QUOTE_NONE) # 处理标题行:读取并去除首尾双引号 header = [x[1:-1] for x in next(reader)] rows_data.append(header) # 处理数据行:读取并去除首尾双引号 for row in reader: processed_row = [x[1:-1] for x in row] rows_data.append(processed_row) return rows_data# 示例使用exp_fn = r"test.exp"parsed_data = parse_tsv_with_embedded_quotes(exp_fn)# 打印解析结果的前几行print("--- 解析结果(csv.QUOTE_NONE + 手动剥离)---")for i, row in enumerate(parsed_data[:4]): print(row)
上述代码将成功解析出如下结果,其中嵌入的双引号被正确保留:
['HEADER', 'ID', 'Part Reference', 'Value', 'Part_Description']['PARTOCC:17306', '17306', 'M1', '48SL-5S-50-C-LF', 'Series 48SL–5 WEDGE–LOK, 2-56UNC-2B, 5.00", chem film, lock washer and flat']['PARTOCC:17310', '17310', 'M2', '48SL-5S-50-C-LF', 'Series 48SL–5 WEDGE–LOK, 2-56UNC-2B, 5.00", chem film, lock washer and flat']['PARTOCC:65494', '65494', 'J4E', '311P822-MC-095-BS-D', 'GSFC CPCI J3 RA MALE 95 Position 0.123" tails']
写回文件
如果你将上述解析后的数据写回一个标准TSV文件,csv.writer 会根据标准规范对含有特殊字符(如逗号、制表符或双引号)的字段进行引用。这意味着写回的文件将是“规范的”TSV,而不是原始的“不规范”格式。
def write_standard_tsv(filepath: str, data: list[list[str]]): """ 将解析后的数据以标准TSV格式写回文件。 """ with open(filepath, "w", newline="", encoding='utf-8') as f: writer = csv.writer(f, delimiter="") writer.writerows(data)# 将解析后的数据写入新的文件output_fn = r"check_standard.exp"write_standard_tsv(output_fn, parsed_data)print(f"数据已写入 '{output_fn}',格式为标准TSV。")# 检查 check_standard.exp,你会发现 Part_Description 字段会被重新引用,# 并且内部的双引号会按照标准CSV规范进行转义(例如,5.00" -> "5.00"")。
这种方法适用于数据摄取(ingestion),但如果你需要严格保持原始文件的“不规范”格式,则需要更定制化的方法。
解决方案二:实现自定义解析与编码函数以确保原始格式往返
为了实现“输入即输出”的精确往返,我们需要对文件的读取和写入过程进行完全的自定义控制。这要求我们明确定义文件的“不规范”格式规则,并编写对应的解析(decode)和编码(encode)函数。
假设的格式规则
为了成功实现往返,我们必须对原始文件的格式有明确的假设:
所有字段都以双引号开头和结尾。字段内容中不包含制表符或换行符(如果包含,则需要更复杂的解析逻辑)。内部的双引号不进行任何转义。
自定义 decode 和 encode 函数
import sysEND = "" # 预期的行结束符DELIM = "" # 预期的字段分隔符QUOT = '"' # 预期的引用字符Row = list[str]def decode(line: str) -> Row: """ 解码一个“不规范”的TSV行。 确保行以END结尾,按DELIM分割,并验证每个字段都以QUOT开头和结尾,然后去除这些引用。 """ if not line.endswith(END): raise ValueError(f"行不以 {repr(END)} 结尾") line = line[:-len(END)] # 移除行结束符 fields = line.split(DELIM) for i, field in enumerate(fields): if not (field.startswith(QUOT) and field.endswith(QUOT)): raise ValueError(f"字段 {i} 未被 {repr(QUOT)} 包围: {repr(field)}") fields[i] = field[1:-1] # 移除首尾双引号 return fieldsdef encode(row: Row) -> str: """ 将行编码回其原始的“不规范”格式。 """ # 为每个字段重新添加双引号,然后用制表符连接 line = DELIM.join([f"{QUOT}{field}{QUOT}" for field in row]) return line + ENDdef exit_err(msg: str): print(msg, file=sys.stderr) sys.exit(1)# 主处理逻辑def process_custom_format(input_filepath: str, output_filepath: str): rows: list[Row] = [] header: Row = [] with open(input_filepath, 'r', encoding='utf-8') as f: try: header = decode(next(f)) except ValueError as e: exit_err(f"无法解码标题行: {e}") for i, line in enumerate(f): try: rows.append(decode(line)) except ValueError as e: exit_err(f"无法解码行 {i+2}: {e}") # +2 因为标题行是第一行,i从0开始 with open(output_filepath, 'w', encoding='utf-8') as f: f.write(encode(header)) for row in rows: f.write(encode(row))# 示例使用exp_fn = r"test.exp"check_custom_fn = r"check_custom.exp"process_custom_format(exp_fn, check_custom_fn)print(f"数据已使用自定义编解码器处理,并写入 '{check_custom_fn}'。")print("通过 'diff test.exp check_custom.exp' 命令验证文件内容是否完全一致。")
运行上述代码后,你可以使用系统命令(如Linux/macOS的diff或Windows的fc)来验证 test.exp 和 check_custom.exp 是否完全一致。如果没有任何输出,则表示两个文件内容完全相同,实现了精确往返。
# 在命令行中运行(假设你的Python脚本名为 main.py)# python main.py# diff test.exp check_custom.exp
如果 diff 命令没有任何输出,则说明文件完全一致。
解决方案三:结合Pandas与正则表达式预处理实现往返
这种方法试图在Pandas的强大功能和原始文件的特殊格式之间找到一个平衡点。其核心思想是:在读取文件之前,使用正则表达式预处理文件内容,将那些“不规范”的内部双引号暂时转义,使其符合Pandas能够理解的转义规则;读取并处理后,在写回文件时,再将这些转义还原。
预处理、Pandas处理与后处理
import csvimport refrom io import StringIOimport pandas as pddef roundtrip_pandas_with_regex(input_filepath: str, output_filepath: str): with open(input_filepath, 'r', encoding='utf-8') as f: text = f.read() # 预处理:将紧跟在数字后的双引号(如 5.00")转义为 " # 这个正则表达式是基于示例数据中的特定模式,可能需要根据实际数据进行调整 # 注意:这里假设嵌入的引号模式是 "d+.d+"" # 如果有其他模式,需要修改或添加更多re.sub规则 processed_text = re.sub(r'(d+.d+)"', r'g"', text) # 使用StringIO将处理后的字符串模拟成文件,供Pandas读取 df = pd.read_csv( StringIO(processed_text), quotechar='"', # 字段被双引号包围 sep="", # 制表符分隔 escapechar="", # 使用反斜杠作为转义字符 dtype=str # 确保所有列都作为字符串读取 ) # 准备一个StringIO对象用于捕获to_csv的输出 out_f = StringIO() # 将DataFrame写回TSV df.to_csv( out_f, sep="", quoting=csv.QUOTE_ALL, # 强制所有字段都被引用 doublequote=False, # 禁用双写内部引号的转义方式 escapechar="", # 使用反斜杠转义内部引号 index=False # 不写入DataFrame的索引 ) # 后处理:将Pandas生成的转义字符(")还原为原始的未转义双引号(") # 并且由于我们设置了escapechar="",Pandas会把我们预处理的"再转义成",所以这里需要处理 output_text = out_f.getvalue().replace(r""", '"') # 还需要处理 Pandas 在 QUOTE_ALL 模式下,如果字段本身没有引号,它会添加引号, # 而我们原始文件是所有字段都有引号的。 # 这一步可能需要更复杂的逻辑来确保精确匹配,例如确保所有字段都以"开头和结尾。 # 对于本例,由于原始文件所有字段都有引号,且内部引号已转义,to_csv会生成 # "field with "internal quote"" 这样的格式,我们需要将 " 还原。 # 写入最终文件 with open(output_filepath, "w", encoding='utf-8') as f: f.write(output_text)# 示例使用exp_fn = r"test.exp"check_pandas_regex_fn = r"check_pandas_regex.exp"roundtrip_pandas_with_regex(exp_fn, check_pandas_regex_fn)print(f"数据已使用Pandas与正则表达式预处理,并写入 '{check_pandas_regex_fn}'。")print("通过 'diff test.exp check_pandas_regex.exp' 命令验证文件内容是否完全一致。")
这种方法利用了Pandas的便利性,但对预处理和后处理的正则表达式匹配精度要求较高。如果原始文件中嵌入双引号的模式多样,正则表达式可能会变得复杂,甚至无法完全覆盖所有情况。因此,在实际应用中,需要仔细分析数据模式来构建健壮的正则表达式。
总结与注意事项
处理带有非标准引用规则的制表符分隔文件是一项常见的挑战。选择哪种解决方案取决于你的具体需求:
csv 模块配合 QUOTE_NONE 和手动剥离:
优点:简单直接,适用于只想正确解析数据进行后续处理(如导入数据库),不要求写回时保持原始“不规范”格式的场景。缺点:无法实现原始“不规范”格式的精确往返。写回时会生成标准TSV。
自定义 decode/encode 函数:
优点:提供了对解析和编码过程的完全控制,是实现原始“不规范”格式精确往返的最可靠方法。缺点:需要明确了解文件的“不规范”格式规则,并编写相应的自定义逻辑。对于非常复杂的格式,代码量可能较大。
**Pandas 结合
以上就是处理Pandas中带嵌入双引号的制表符分隔文件:实现精确往返读写的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1380090.html
微信扫一扫
支付宝扫一扫