C++ lambda 表达式与闭包在机器学习中的应用

机器学习中,lambda 表达式和闭包用于数据预处理、特征工程、模型构建和闭包。具体应用包括:数据规范化等数据预处理操作。创建新特征或转换现有特征。向模型添加自定义的损失函数、激活函数等组件。利用闭包访问外部变量,用于计算特定特征的平均值等目的。

C++ lambda 表达式与闭包在机器学习中的应用

C++ Lambda 表达式与闭包在机器学习中的应用

在机器学习中,lambda 表达式和闭包在以下方面发挥着至关重要的作用:

1. 数据预处理

立即学习“C++免费学习笔记(深入)”;

通过使用 lambda,您可以轻松地将数据转换、清理和归一化的操作封装成简洁的代码块。例如,以下 lambda 对数据集中的每一行进行规范化:

auto normalize = [](const std::vector& row) {  double sum = 0;  for (auto& value : row) {    sum += value * value;  }  double norm = sqrt(sum);  std::transform(row.begin(), row.end(), row.begin(), [norm](double value) {    return value / norm;  });  return row;};

2. 特征工程

lambda 可用于创建新的特征或转换现有的特征。例如,以下 lambda 计算每个数据的某个特定列上的滑动平均值:

auto moving_average = [](const std::vector& data, int window) {  std::vector avg;  for (int i = 0; i < data.size() - window + 1; ++i) {    avg.push_back(std::accumulate(data.begin() + i, data.begin() + i + window, 0) / window);  }  return avg;};

3. 模型构建

lambda 可用于向模型添加自定义的损失函数、激活函数或其他组件。例如,以下 lambda 定义了一个用于二分类任务的自定义 sigmoid 损失函数:

auto sigmoid_loss = [](const std::vector& true_values, const std::vector& predicted_values) {  std::vector losses;  for (int i = 0; i < true_values.size(); ++i) {    double p = 1.0 / (1.0 + std::exp(-predicted_values[i]));    losses.push_back(- true_values[i] * std::log(p) - (1 - true_values[i]) * std::log(1 - p));  }  return std::accumulate(losses.begin(), losses.end(), 0);};

4. 闭包

闭包允许 lambda 表达式访问其创建时的外部变量。这在需要访问训练数据或其他状态时特别有用。例如,以下闭包使用 lambda 表达式计算特定特征的平均值:

auto avg_feature = [](const std::vector& column) {  return std::accumulate(column.begin(), column.end(), 0) / column.size();};std::vector features = ...;std::vector avg_values(features.size());std::transform(features.begin(), features.end(), avg_values.begin(), avg_feature);

实战案例:手写数字识别

考虑使用 MNIST 数据集训练一个简单的手写数字识别器。以下代码展示了如何利用 lambda 和闭包进行数据预处理、特征工程和模型训练:

#include #include #include #include #include using namespace std;typedef vector<vector > Matrix;// 数据规范化auto normalize = [](const vector& row) -> vector {  double sum = 0;  for (auto& value : row) {    sum += value * value;  }  double norm = sqrt(sum);  transform(row.begin(), row.end(), row.begin(), [norm](double value) {    return value / norm;  });  return row;};// 获取特征auto get_features = [](const Matrix& data, const vector& labels) -> Matrix {  Matrix features(data.size(), 784);  for (int i = 0; i < data.size(); ++i) {    features[i] = normalize(data[i]);  }  return features;};// 定义 sigmoid 损失auto sigmoid_loss = [](const vector& true_values, const vector& predicted_values) -> double {  vector losses;  for (int i = 0; i < true_values.size(); ++i) {    double p = 1.0 / (1.0 + exp(-predicted_values[i]));    losses.push_back(- true_values[i] * log(p) - (1 - true_values[i]) * log(1 - p));  }  return accumulate(losses.begin(), losses.end(), 0);};int main() {  // 加载 MNIST 数据  Matrix data = ...;  vector labels = ...;  // 数据预处理  Matrix features = get_features(data, labels);  // 模型训练  // ...}

以上就是C++ lambda 表达式与闭包在机器学习中的应用的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1458580.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月18日 10:43:17
下一篇 2025年12月18日 10:43:30

相关推荐

发表回复

登录后才能评论
关注微信