文章 2024-08-08 来自:开发者社区

【博士每天一篇文献-算法】Machine Unlearning via Representation Forgetting With Parameter Self-Sharing

阅读时间:2023-12-4 1 介绍 年份:2024作者:王伟奇;张辰涵,悉尼科技大学期刊: IEEE Transactions on Information Forensics and Security引用量:1这篇论文探讨了机器学习的“反学习”(machine unlearning)问题,即数据所有者希望从已训练好的模型中移除特定样本的影响。现有的方法在移除数据影响和保留模型效用之间难...

【博士每天一篇文献-算法】Machine Unlearning via Representation Forgetting With Parameter Self-Sharing
文章 2024-08-08 来自:开发者社区

【博士每天一篇文献-算法】Zero-Shot Machine Unlearning

阅读时间:2023-12-3 1 介绍 年份:2023作者:Vikram S. Chundawat,Ayush K. Tarun,新加坡国立大学期刊: IEEE Transactions on Information Forensics and Security引用量:5由于现代隐私法规中,有些个人要求产品和服务(包括机器学习模型)不能保留他们的信息。机器遗忘涉及从训练好的机器学习模型中移除...

【博士每天一篇文献-算法】Zero-Shot Machine Unlearning
文章 2024-04-03 来自:开发者社区

Machine Learning机器学习之K近邻算法(K-Nearest Neighbors,KNN)

前言 背景介绍: K近邻算法最早由美国的科学家 Thomas Cover 和 Peter Hart 在 1967 年提出,并且在之后的几十年中得到了广泛的研究和应用。KNN 算法是一种基于实例的学习方法,它不像其他算法一样需要对数据进行假设或者参数拟合,而是直接利用已知的数据样本进行预测。 思想: KNN 算法的思想是基于特征空间中的样本点之间的距离来进行分类。它...

Machine Learning机器学习之K近邻算法(K-Nearest Neighbors,KNN)
文章 2023-12-17 来自:开发者社区

Python高级算法——支持向量机(Support Vector Machine,SVM)

Python中的支持向量机(Support Vector Machine,SVM):理论与实践 支持向量机(Support Vector Machine,SVM)是一种强大的监督学习算法,主要用于分类和回归问题。本文将深入讲解Python中的支持向量机,包括算法原理、核函...

Python高级算法——支持向量机(Support Vector Machine,SVM)
文章 2023-02-09 来自:开发者社区

机器学习算法之——支持向量机(Support Vector Machine, SVM)

前言上星期写了Kaggle竞赛的详细介绍及入门指导,但对于真正想要玩这个竞赛的伙伴,机器学习中的相关算法是必不可少的,即使是你不想获得名次和奖牌。那么,从本周开始,我将介绍在Kaggle比赛中的最基本的也是运用最广的机器学习算法,很多项目用这些基本的模型就能解决基础问题了。今天我们开始介绍支持向量机(Support Vector Machine, SVM),是一种经典的二分类模型,属于监督学习算....

机器学习算法之——支持向量机(Support Vector Machine, SVM)
文章 2022-12-08 来自:开发者社区

周志华《Machine Learning》学习笔记(9)--EM算法

上篇主要介绍了贝叶斯分类器,从贝叶斯公式到贝叶斯决策论,再到通过极大似然法估计类条件概率,贝叶斯分类器的训练就是参数估计的过程。朴素贝叶斯则是“属性条件独立性假设”下的特例,它避免了假设属性联合分布过于经验性和训练集不足引起参数估计较大偏差两个大问题,最后介绍的拉普拉斯修正将概率值进行平滑处理。本篇将介绍另一个当选为数据挖掘十大算法之一的EM算法。#8、EM算法EM(Expectation-Ma....

周志华《Machine Learning》学习笔记(9)--EM算法
文章 2022-11-21 来自:开发者社区

Machine Learning-L15-EM算法全解析(下)

2 EM算法2.1 算法描述输入:观测变量数据X = ( x ( 1 ) , x ( 2 ) , . . . x ( m ) ,隐变量数据Z = ( z ( 1 ) , z ( 2 ) , . . . z ( m ) 输出:模型参数θ 观测数据X 又称不完全数据(incomplete-data),其概率分布是P ( X ∣ θ X 和Z连在一起称完全数据(complete data),其联合概率....

Machine Learning-L15-EM算法全解析(下)
文章 2022-11-21 来自:开发者社区

Machine Learning-L15-EM算法全解析(上)

期望极大化(EM,Expectation Maximization)是一种迭代算法,1977年由Dempster等人总结提出,用于含有隐变量(hidden variable)的概率模型参数的极大似然估计或极大后验概率估计。概率模型有时既含有观测变量(observable variable),又含有隐变量或潜变量(latent variable)。如果概率模型的变量都是观测变量,那么给定数据后,可....

Machine Learning-L15-EM算法全解析(上)
文章 2021-12-09 来自:开发者社区

Machine Learning | (10) 回归算法-岭回归

Machine Learning | 机器学习简介Machine Learning | (1) Scikit-learn与特征工程Machine Learning | (2) sklearn数据集与机器学习组成Machine Learning | (3) Scikit-learn的分类器算法-k-近邻Machine Learning | (4) Scikit-learn的分类器算法-逻辑回归Ma....

文章 2021-12-09 来自:开发者社区

Machine Learning | (9) 回归算法-线性回归

Machine Learning | 机器学习简介Machine Learning | (1) Scikit-learn与特征工程Machine Learning | (2) sklearn数据集与机器学习组成Machine Learning | (3) Scikit-learn的分类器算法-k-近邻Machine Learning | (4) Scikit-learn的分类器算法-逻辑回归Ma....

Machine Learning | (9) 回归算法-线性回归

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

智能引擎技术

AI Online Serving,阿里巴巴集团搜推广算法与工程技术的大本营,大数据深度学习时代的创新主场。

+关注