w***u 发帖数: 17713 | 1 太依赖于海量数据的统计了。
而统计是种族主义,是stereotype, 是男性沙文主义,政治上不正确,迟早都有被禁止
的一天。 |
d*****u 发帖数: 17243 | 2 已经有很多paper讨论怎么消除训练数据中的bias
前两年很流行这个topic |
w***u 发帖数: 17713 | 3 无解,就像医学研究,如果完全忽略基于种族考虑,装作没种族差别的话,诊断成本和
速度会差很多。在别的方面同样有这个统计显著性问题,但必须装作不知道,这就困难
了。
【在 d*****u 的大作中提到】 : 已经有很多paper讨论怎么消除训练数据中的bias : 前两年很流行这个topic
|
w***u 发帖数: 17713 | 4 假设一堆胸部图像,训练机器判断是否有乳腺癌,但不能输入性别数据,那是sexism,
你会不会感到很滑稽?
但别的领域就可能这么做。 |
i*****9 发帖数: 3157 | 5 装作不知道的AI依然是歧视,这和大学录取要求racial blind是对黑人的歧视是一个道
理。
AI伦理学的目标是预测的结果要显示出再各个race中是均匀分布的。做不到就去改数据
的采样标准,并针对不同的race采样加权。
和速度会差很多。在别的方面同样有这个统计显著性问题,但必须装作不知道,这就困
难了。
【在 w***u 的大作中提到】 : 无解,就像医学研究,如果完全忽略基于种族考虑,装作没种族差别的话,诊断成本和 : 速度会差很多。在别的方面同样有这个统计显著性问题,但必须装作不知道,这就困难 : 了。
|
d*****u 发帖数: 17243 | 6 主要是打破非决定性关联
比如黑人成为数学家的少
但我们不用种族这个特征,用中学成绩、兴趣爱好、性格等其他因素也可以预测,而且
可能就会让种族成为无效特征
简单粗暴用种族当然也有一定效果
但risk就是把那些少部分黑人数学家直接淘汰了
【在 w***u 的大作中提到】 : 假设一堆胸部图像,训练机器判断是否有乳腺癌,但不能输入性别数据,那是sexism, : 你会不会感到很滑稽? : 但别的领域就可能这么做。
|
l****g 发帖数: 5080 | 7 无所谓吧,本来DNA序列就已经包含种族信息了,直接用就行了。
【在 w***u 的大作中提到】 : 无解,就像医学研究,如果完全忽略基于种族考虑,装作没种族差别的话,诊断成本和 : 速度会差很多。在别的方面同样有这个统计显著性问题,但必须装作不知道,这就困难 : 了。
|
w***u 发帖数: 17713 | 8 套用前面乳腺癌的例子,男人也有得乳腺癌的,女人大部分都不得乳腺癌,所以不能掺
入性别因素,性别和乳腺癌无关。。。
很多事情很难说有无决定性关联,各族群进化史差异很大,被选择的形状很不同,很多
行为的背后是化学而不是环境的结果,这些统计作废,是很难有合理结果的。
【在 d*****u 的大作中提到】 : 主要是打破非决定性关联 : 比如黑人成为数学家的少 : 但我们不用种族这个特征,用中学成绩、兴趣爱好、性格等其他因素也可以预测,而且 : 可能就会让种族成为无效特征 : 简单粗暴用种族当然也有一定效果 : 但risk就是把那些少部分黑人数学家直接淘汰了
|
i*****9 发帖数: 3157 | 9 你们都是在瞎猜,根本没接触过现在的AI ethics的工作。要是像你们说的这样直接不
把race作为输入参数就算没有racial discrimination的话,这帮搞ai ethics的早就没
饭吃了。
掺入性别因素,性别和乳腺癌无关。。。
多行为的背后是化学而不是环境的结果,这些统计作废,是很难有合理结果的。
而且
【在 w***u 的大作中提到】 : 套用前面乳腺癌的例子,男人也有得乳腺癌的,女人大部分都不得乳腺癌,所以不能掺 : 入性别因素,性别和乳腺癌无关。。。 : 很多事情很难说有无决定性关联,各族群进化史差异很大,被选择的形状很不同,很多 : 行为的背后是化学而不是环境的结果,这些统计作废,是很难有合理结果的。
|
c****h 发帖数: 4968 | 10 美国因为观念和法律上的限制,AI发展必然会受到限制。
【在 w***u 的大作中提到】 : 太依赖于海量数据的统计了。 : 而统计是种族主义,是stereotype, 是男性沙文主义,政治上不正确,迟早都有被禁止 : 的一天。
|
d*****u 发帖数: 17243 | 11 只要数据量足够大
隐藏一个特征有可能做到不影响结果,其他各种关联特征很多
至于其他复杂的关联,大家不认为是歧视就可以用
其实现在用深度学习,很多特征根本不interpretable,怎么解释都行
然后就是有效性和公平性的平衡,这个在任何时期都存在
【在 w***u 的大作中提到】 : 套用前面乳腺癌的例子,男人也有得乳腺癌的,女人大部分都不得乳腺癌,所以不能掺 : 入性别因素,性别和乳腺癌无关。。。 : 很多事情很难说有无决定性关联,各族群进化史差异很大,被选择的形状很不同,很多 : 行为的背后是化学而不是环境的结果,这些统计作废,是很难有合理结果的。
|
i*****9 发帖数: 3157 | 12 所以下一步就是就是剔除有隐含关联的信息呀,比方说zip code基本就属于和种族强关
联的信息,基本都不会被允许使用。
能掺
【在 d*****u 的大作中提到】 : 只要数据量足够大 : 隐藏一个特征有可能做到不影响结果,其他各种关联特征很多 : 至于其他复杂的关联,大家不认为是歧视就可以用 : 其实现在用深度学习,很多特征根本不interpretable,怎么解释都行 : 然后就是有效性和公平性的平衡,这个在任何时期都存在
|
d*****u 发帖数: 17243 | 13 哪算些是歧视,本质上是主观的,最后由人决定
zip code跟人的家庭背景等强相关(包括种族)
但如果我们能直接找到一个人更本质的特征,属于他自己的特征,那家庭背景带来的条
件概率可能就没啥用了
【在 i*****9 的大作中提到】 : 所以下一步就是就是剔除有隐含关联的信息呀,比方说zip code基本就属于和种族强关 : 联的信息,基本都不会被允许使用。 : : 能掺
|
i*****9 发帖数: 3157 | 14 个人更本质的特征属于privacy, 那就更不能用了,哈哈。
条件概率可能就没啥用了
强关
【在 d*****u 的大作中提到】 : 哪算些是歧视,本质上是主观的,最后由人决定 : zip code跟人的家庭背景等强相关(包括种族) : 但如果我们能直接找到一个人更本质的特征,属于他自己的特征,那家庭背景带来的条 : 件概率可能就没啥用了
|
w***u 发帖数: 17713 | 15 像保险公司保高中生用GPA来折扣,名义上是成绩好的孩子开车小心,实际上是不是种
族关联?(黄女成绩好不会开车可是著名的stereotype) |
i*****9 发帖数: 3157 | 16 连用SAT成绩来大学录取都是对黑人的歧视呀,你说呢。。。。。。
【在 w***u 的大作中提到】 : 像保险公司保高中生用GPA来折扣,名义上是成绩好的孩子开车小心,实际上是不是种 : 族关联?(黄女成绩好不会开车可是著名的stereotype)
|
d*****u 发帖数: 17243 | 17 取决于用途
【在 i*****9 的大作中提到】 : 个人更本质的特征属于privacy, 那就更不能用了,哈哈。 : : 条件概率可能就没啥用了 : 强关
|
U**s 发帖数: 3390 | 18 现在主流是personalized medicine研发,你这个概念落后太多了
【在 w***u 的大作中提到】 : 无解,就像医学研究,如果完全忽略基于种族考虑,装作没种族差别的话,诊断成本和 : 速度会差很多。在别的方面同样有这个统计显著性问题,但必须装作不知道,这就困难 : 了。
|
i*****9 发帖数: 3157 | 19 你用途合法没问题,真正使用模型的时候可以找用户拿授权。我就问你训练数据打算怎
么收集?也一条记录一条记录的签授权书?
【在 d*****u 的大作中提到】 : 取决于用途
|
d*****u 发帖数: 17243 | 20 如果能显示在GPA相同时,种族与保费是独立变量,一般不视为歧视
当然有些人会说GPA和种族之间不是独立的,但这个至少法律上不支持
实际上保险公司特别注意这方面,不然会吃官司
【在 w***u 的大作中提到】 : 像保险公司保高中生用GPA来折扣,名义上是成绩好的孩子开车小心,实际上是不是种 : 族关联?(黄女成绩好不会开车可是著名的stereotype)
|
b*******t 发帖数: 4756 | 21 废话。
不考虑种族的话,所有机器自己训练出来的ai最后都会认为黑人是shithole。 |
i*****9 发帖数: 3157 | 22 是的,现实就是不管你用什么变量,最后需要你自己去证明最后产生的模型对在各种族
中是一致分布的。
所以最后的解决方法往往是把种族作为一个重要的feature引入模型,来把模型修正到
对各种族的分布是一致的。
【在 d*****u 的大作中提到】 : 如果能显示在GPA相同时,种族与保费是独立变量,一般不视为歧视 : 当然有些人会说GPA和种族之间不是独立的,但这个至少法律上不支持 : 实际上保险公司特别注意这方面,不然会吃官司
|