l*****u 发帖数: 26 | 1 公司急招做online advertising服务器端的工程师,主要是做programmatic和RTB的项
目,用C++。如果有兴趣的请站内联系。公司在三藩金融区。
万分感谢。 |
p*****2 发帖数: 21240 | 2 你们的RTB为什么会选择C++,不是Java呢?能不能讲讲? |
y******u 发帖数: 804 | 3 因为real time?
【在 p*****2 的大作中提到】 : 你们的RTB为什么会选择C++,不是Java呢?能不能讲讲?
|
p*****2 发帖数: 21240 | 4
Java real time不行吗?
【在 y******u 的大作中提到】 : 因为real time?
|
y******u 发帖数: 804 | 5 二爷百密一疏啊~gc呢
【在 p*****2 的大作中提到】 : : Java real time不行吗?
|
l*****u 发帖数: 26 | 6 还是从性能考虑吧,系统是大规模并发,每个request进来就3-5ms的响应时间用在系统
处理上面,系统是5年前架构的,当时觉得还是c++要比java要快点,相信这些年java也
有很多改进,并不排除未来可能使用java,只要足够快。
【在 p*****2 的大作中提到】 : : Java real time不行吗?
|
p*****2 发帖数: 21240 | 7
每秒钟大概多少request呀?
【在 l*****u 的大作中提到】 : 还是从性能考虑吧,系统是大规模并发,每个request进来就3-5ms的响应时间用在系统 : 处理上面,系统是5年前架构的,当时觉得还是c++要比java要快点,相信这些年java也 : 有很多改进,并不排除未来可能使用java,只要足够快。
|
p*****2 发帖数: 21240 | 8
Java我也不熟。这个要goodbug和zhaoce大牛来讲了。感觉现在越来越多的用Java了。
不知道Java实现3-5ms的响应困难大不大。
【在 y******u 的大作中提到】 : 二爷百密一疏啊~gc呢
|
w*********m 发帖数: 4740 | 9 还好吧,我做的一个分类模型放tomcat下可以达到client端end to end 99.99%<10ms
其他的就是gc搞的了
【在 p*****2 的大作中提到】 : : Java我也不熟。这个要goodbug和zhaoce大牛来讲了。感觉现在越来越多的用Java了。 : 不知道Java实现3-5ms的响应困难大不大。
|
a***n 发帖数: 538 | |
|
|
g*****g 发帖数: 34805 | 11 99%, not difficult. 100%, very difficult.
【在 p*****2 的大作中提到】 : : Java我也不熟。这个要goodbug和zhaoce大牛来讲了。感觉现在越来越多的用Java了。 : 不知道Java实现3-5ms的响应困难大不大。
|
z****e 发帖数: 54598 | 12 这种要参考twitter比较合适吧,scala我看可能会更适合点
这个二爷你或者半海应该更清楚
还有azul system,买买提上也有这家公司的员工
【在 p*****2 的大作中提到】 : : Java我也不熟。这个要goodbug和zhaoce大牛来讲了。感觉现在越来越多的用Java了。 : 不知道Java实现3-5ms的响应困难大不大。
|
d*****d 发帖数: 180 | 13 没有能100%的,os还会当机呢,更别提网络电源故障。。 |
l*****u 发帖数: 26 | 14 ~1.5k
【在 p*****2 的大作中提到】 : : Java我也不熟。这个要goodbug和zhaoce大牛来讲了。感觉现在越来越多的用Java了。 : 不知道Java实现3-5ms的响应困难大不大。
|
y******u 发帖数: 804 | 15 throughput ?还是 99% percentile?
【在 g*****g 的大作中提到】 : 99%, not difficult. 100%, very difficult.
|
z****e 发帖数: 54598 | 16 如果把这个系统扔到google自己的cloud上去,是不是latency可以进一步压缩?
【在 w*********m 的大作中提到】 : 还好吧,我做的一个分类模型放tomcat下可以达到client端end to end 99.99%<10ms : 其他的就是gc搞的了
|
l*******m 发帖数: 1096 | 17 是,java 数值计算还挺快的,只要少产生obj
【在 w*********m 的大作中提到】 : 还好吧,我做的一个分类模型放tomcat下可以达到client端end to end 99.99%<10ms : 其他的就是gc搞的了
|
z****e 发帖数: 54598 | 18 昨晚回去想了下
如果我跑n个instances,只要n大于2的话
那理论上逼近100%还是可行的
就算有一个instance在gc
多个instances同时gc的概率,那应该是很低很低了 |
i******s 发帖数: 301 | |
s*****r 发帖数: 43070 | 20 够heavy,要用大数据了,分布式存储和消息传送,Java优势明显
【在 l*****u 的大作中提到】 : ~1.5k
|