由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Military版 - 美国当前的商业AI开发必然要被遏制
进入Military版参与讨论
1 (共1页)
w***u
发帖数: 17713
1
太依赖于海量数据的统计了。
而统计是种族主义,是stereotype, 是男性沙文主义,政治上不正确,迟早都有被禁止
的一天。
d*****u
发帖数: 17243
2
已经有很多paper讨论怎么消除训练数据中的bias
前两年很流行这个topic
w***u
发帖数: 17713
3
无解,就像医学研究,如果完全忽略基于种族考虑,装作没种族差别的话,诊断成本和
速度会差很多。在别的方面同样有这个统计显著性问题,但必须装作不知道,这就困难
了。

【在 d*****u 的大作中提到】
: 已经有很多paper讨论怎么消除训练数据中的bias
: 前两年很流行这个topic

w***u
发帖数: 17713
4
假设一堆胸部图像,训练机器判断是否有乳腺癌,但不能输入性别数据,那是sexism,
你会不会感到很滑稽?
但别的领域就可能这么做。
i*****9
发帖数: 3157
5
装作不知道的AI依然是歧视,这和大学录取要求racial blind是对黑人的歧视是一个道
理。
AI伦理学的目标是预测的结果要显示出再各个race中是均匀分布的。做不到就去改数据
的采样标准,并针对不同的race采样加权。

和速度会差很多。在别的方面同样有这个统计显著性问题,但必须装作不知道,这就困
难了。

【在 w***u 的大作中提到】
: 无解,就像医学研究,如果完全忽略基于种族考虑,装作没种族差别的话,诊断成本和
: 速度会差很多。在别的方面同样有这个统计显著性问题,但必须装作不知道,这就困难
: 了。

d*****u
发帖数: 17243
6
主要是打破非决定性关联
比如黑人成为数学家的少
但我们不用种族这个特征,用中学成绩、兴趣爱好、性格等其他因素也可以预测,而且
可能就会让种族成为无效特征
简单粗暴用种族当然也有一定效果
但risk就是把那些少部分黑人数学家直接淘汰了

【在 w***u 的大作中提到】
: 假设一堆胸部图像,训练机器判断是否有乳腺癌,但不能输入性别数据,那是sexism,
: 你会不会感到很滑稽?
: 但别的领域就可能这么做。

l****g
发帖数: 5080
7
无所谓吧,本来DNA序列就已经包含种族信息了,直接用就行了。

【在 w***u 的大作中提到】
: 无解,就像医学研究,如果完全忽略基于种族考虑,装作没种族差别的话,诊断成本和
: 速度会差很多。在别的方面同样有这个统计显著性问题,但必须装作不知道,这就困难
: 了。

w***u
发帖数: 17713
8
套用前面乳腺癌的例子,男人也有得乳腺癌的,女人大部分都不得乳腺癌,所以不能掺
入性别因素,性别和乳腺癌无关。。。
很多事情很难说有无决定性关联,各族群进化史差异很大,被选择的形状很不同,很多
行为的背后是化学而不是环境的结果,这些统计作废,是很难有合理结果的。

【在 d*****u 的大作中提到】
: 主要是打破非决定性关联
: 比如黑人成为数学家的少
: 但我们不用种族这个特征,用中学成绩、兴趣爱好、性格等其他因素也可以预测,而且
: 可能就会让种族成为无效特征
: 简单粗暴用种族当然也有一定效果
: 但risk就是把那些少部分黑人数学家直接淘汰了

i*****9
发帖数: 3157
9
你们都是在瞎猜,根本没接触过现在的AI ethics的工作。要是像你们说的这样直接不
把race作为输入参数就算没有racial discrimination的话,这帮搞ai ethics的早就没
饭吃了。

掺入性别因素,性别和乳腺癌无关。。。
多行为的背后是化学而不是环境的结果,这些统计作废,是很难有合理结果的。
而且

【在 w***u 的大作中提到】
: 套用前面乳腺癌的例子,男人也有得乳腺癌的,女人大部分都不得乳腺癌,所以不能掺
: 入性别因素,性别和乳腺癌无关。。。
: 很多事情很难说有无决定性关联,各族群进化史差异很大,被选择的形状很不同,很多
: 行为的背后是化学而不是环境的结果,这些统计作废,是很难有合理结果的。

c****h
发帖数: 4968
10
美国因为观念和法律上的限制,AI发展必然会受到限制。

【在 w***u 的大作中提到】
: 太依赖于海量数据的统计了。
: 而统计是种族主义,是stereotype, 是男性沙文主义,政治上不正确,迟早都有被禁止
: 的一天。

d*****u
发帖数: 17243
11
只要数据量足够大
隐藏一个特征有可能做到不影响结果,其他各种关联特征很多
至于其他复杂的关联,大家不认为是歧视就可以用
其实现在用深度学习,很多特征根本不interpretable,怎么解释都行
然后就是有效性和公平性的平衡,这个在任何时期都存在

【在 w***u 的大作中提到】
: 套用前面乳腺癌的例子,男人也有得乳腺癌的,女人大部分都不得乳腺癌,所以不能掺
: 入性别因素,性别和乳腺癌无关。。。
: 很多事情很难说有无决定性关联,各族群进化史差异很大,被选择的形状很不同,很多
: 行为的背后是化学而不是环境的结果,这些统计作废,是很难有合理结果的。

i*****9
发帖数: 3157
12
所以下一步就是就是剔除有隐含关联的信息呀,比方说zip code基本就属于和种族强关
联的信息,基本都不会被允许使用。

能掺

【在 d*****u 的大作中提到】
: 只要数据量足够大
: 隐藏一个特征有可能做到不影响结果,其他各种关联特征很多
: 至于其他复杂的关联,大家不认为是歧视就可以用
: 其实现在用深度学习,很多特征根本不interpretable,怎么解释都行
: 然后就是有效性和公平性的平衡,这个在任何时期都存在

d*****u
发帖数: 17243
13
哪算些是歧视,本质上是主观的,最后由人决定
zip code跟人的家庭背景等强相关(包括种族)
但如果我们能直接找到一个人更本质的特征,属于他自己的特征,那家庭背景带来的条
件概率可能就没啥用了

【在 i*****9 的大作中提到】
: 所以下一步就是就是剔除有隐含关联的信息呀,比方说zip code基本就属于和种族强关
: 联的信息,基本都不会被允许使用。
:
: 能掺

i*****9
发帖数: 3157
14
个人更本质的特征属于privacy, 那就更不能用了,哈哈。

条件概率可能就没啥用了
强关

【在 d*****u 的大作中提到】
: 哪算些是歧视,本质上是主观的,最后由人决定
: zip code跟人的家庭背景等强相关(包括种族)
: 但如果我们能直接找到一个人更本质的特征,属于他自己的特征,那家庭背景带来的条
: 件概率可能就没啥用了

w***u
发帖数: 17713
15
像保险公司保高中生用GPA来折扣,名义上是成绩好的孩子开车小心,实际上是不是种
族关联?(黄女成绩好不会开车可是著名的stereotype)
i*****9
发帖数: 3157
16
连用SAT成绩来大学录取都是对黑人的歧视呀,你说呢。。。。。。

【在 w***u 的大作中提到】
: 像保险公司保高中生用GPA来折扣,名义上是成绩好的孩子开车小心,实际上是不是种
: 族关联?(黄女成绩好不会开车可是著名的stereotype)

d*****u
发帖数: 17243
17
取决于用途

【在 i*****9 的大作中提到】
: 个人更本质的特征属于privacy, 那就更不能用了,哈哈。
:
: 条件概率可能就没啥用了
: 强关

U**s
发帖数: 3390
18
现在主流是personalized medicine研发,你这个概念落后太多了

【在 w***u 的大作中提到】
: 无解,就像医学研究,如果完全忽略基于种族考虑,装作没种族差别的话,诊断成本和
: 速度会差很多。在别的方面同样有这个统计显著性问题,但必须装作不知道,这就困难
: 了。

i*****9
发帖数: 3157
19
你用途合法没问题,真正使用模型的时候可以找用户拿授权。我就问你训练数据打算怎
么收集?也一条记录一条记录的签授权书?

【在 d*****u 的大作中提到】
: 取决于用途
d*****u
发帖数: 17243
20
如果能显示在GPA相同时,种族与保费是独立变量,一般不视为歧视
当然有些人会说GPA和种族之间不是独立的,但这个至少法律上不支持
实际上保险公司特别注意这方面,不然会吃官司

【在 w***u 的大作中提到】
: 像保险公司保高中生用GPA来折扣,名义上是成绩好的孩子开车小心,实际上是不是种
: 族关联?(黄女成绩好不会开车可是著名的stereotype)

b*******t
发帖数: 4756
21
废话。
不考虑种族的话,所有机器自己训练出来的ai最后都会认为黑人是shithole。
i*****9
发帖数: 3157
22
是的,现实就是不管你用什么变量,最后需要你自己去证明最后产生的模型对在各种族
中是一致分布的。
所以最后的解决方法往往是把种族作为一个重要的feature引入模型,来把模型修正到
对各种族的分布是一致的。

【在 d*****u 的大作中提到】
: 如果能显示在GPA相同时,种族与保费是独立变量,一般不视为歧视
: 当然有些人会说GPA和种族之间不是独立的,但这个至少法律上不支持
: 实际上保险公司特别注意这方面,不然会吃官司

1 (共1页)
进入Military版参与讨论