w***g 发帖数: 5958 | 1 所谓出奇制胜。怕是没有操星际那么容易。
让AI学孙子兵法,然后transfer learning? |
h**c 发帖数: 1979 | 2 If(target.isEnemy) then biubiubiu |
C*****l 发帖数: 1 | 3 其实有些大国之间都是预设战场,比如法德之间,不知道纸上演习了多少次,德国一战
用施里芬计划,二战换了曼施坦因计划,AI做纸上预演完全有可能,指挥全面战争还早
,变量太多。Ai直接使用,用在局部比如空战海战更有可能。这些场景都有充足的数据。
【在 w***g 的大作中提到】 : 所谓出奇制胜。怕是没有操星际那么容易。 : 让AI学孙子兵法,然后transfer learning?
|
w*****r 发帖数: 197 | 4 reinforcement learning直接对胜进行优化,奇或不奇都尽在掌握。在无限算力面前,
rl对人施行的是残暴的降维打击 |
f******2 发帖数: 2455 | 5 是的,所有策略型,board game型游戏现在人类基本就是被Google搞出来的这个方案全
面碾压。
一些类似五子棋一样的board game好像deep net都不需要,就是mdp和q function就够了
: reinforcement learning直接对胜进行优化,奇或不奇都尽在掌握。在无限算力
面前,
: rl对人施行的是残暴的降维打击
【在 w*****r 的大作中提到】 : reinforcement learning直接对胜进行优化,奇或不奇都尽在掌握。在无限算力面前, : rl对人施行的是残暴的降维打击
|
x****u 发帖数: 44466 | 6 rf是用回放数据训练的
【在 w*****r 的大作中提到】 : reinforcement learning直接对胜进行优化,奇或不奇都尽在掌握。在无限算力面前, : rl对人施行的是残暴的降维打击
|
x****u 发帖数: 44466 | 7 用历史数据学习
【在 w***g 的大作中提到】 : 所谓出奇制胜。怕是没有操星际那么容易。 : 让AI学孙子兵法,然后transfer learning?
|
w*****r 发帖数: 197 | 8 你说的那叫bootstrapping
【在 x****u 的大作中提到】 : rf是用回放数据训练的
|
r****t 发帖数: 10904 | 9 bootstrapping 是说的 random sample with replacement 那种 bootstrapping 吗?
【在 w*****r 的大作中提到】 : 你说的那叫bootstrapping
|
x****u 发帖数: 44466 | 10 bootstraping指的是人类参与,就算电脑自己瞎折腾也一样需要回放
【在 w*****r 的大作中提到】 : 你说的那叫bootstrapping
|
|
|
w*****r 发帖数: 197 | 11 统计我不太懂,也许高人会认为它们抽象的是一个东西。
我说的是RL里面的booststrapping
【在 r****t 的大作中提到】 : bootstrapping 是说的 random sample with replacement 那种 bootstrapping 吗?
|
g****t 发帖数: 31659 | 12 从一些原则出发进行训练机器人。例如 勇敢,忠诚 |
C*****l 发帖数: 1 | 13 experience replay,deepmind的早期的DQN就要用这个了,以为的经验会进一个pool,
然后随机sample一些出来做训练
【在 w*****r 的大作中提到】 : 统计我不太懂,也许高人会认为它们抽象的是一个东西。 : 我说的是RL里面的booststrapping
|
C*****l 发帖数: 1 | 14 DM星级2联赛里面就保留了各种风格的AI,有的就是微操好,有的注重发展经济。
【在 g****t 的大作中提到】 : 从一些原则出发进行训练机器人。例如 勇敢,忠诚
|
L****8 发帖数: 3938 | 15 仿真训练 不可能用真实数据 没有那么多
【在 w***g 的大作中提到】 : 所谓出奇制胜。怕是没有操星际那么容易。 : 让AI学孙子兵法,然后transfer learning?
|