由买买提看人间百态

topics

全部话题 - 话题: tensor
1 2 3 4 5 6 下页 末页 (共6页)
w**d
发帖数: 2334
1
来自主题: Computation版 - tensor product in Matlab?
Anybody knows how to use tensor product in Matlab?
I need to multiply a 3D tensor and a 1D tensor to get a 2D matrix.
Seems the default multiplication * doesn't work. Maybe I can only use a
loop for that?
l***o
发帖数: 7937
2
来自主题: Mathematics版 - Question on Tensor
(2) is also correct as long as you consider a_ij, b_kl as tensorial elements
other than tensors in condensed form. The first term of the RHS is actually
the tensor product of two second-order tensors: V dyadic W.
n*s
发帖数: 752
3
来自主题: ME版 - 问个scalar, tensor的问题
【 以下文字转载自 Physics 讨论区 】
发信人: nos (redemption), 信区: Physics
标 题: 问个scalar, tensor的问题
发信站: BBS 未名空间站 (Tue Apr 3 00:25:43 2007), 转信
我最近在看landau的elasticity的书
里面在讲材料free energy的时候,直接猜了一个F关于strain tensor u_{ik} 展开的
形式
原文如下:
since the free energy is a scalar, each term in the expansion of F must be a
scalar also. Twon independent scalars of the second degree can be formed
from the components of the symmetrical tensor u_{ik}: they can be taken as
the squared sum of the diagonal components (u_{ii}^2) a
s**e
发帖数: 103
4

by saying **F=-F, I assume you are working in a minkowski space with dimension
4, for which a self dual tensor does not exist for the reason you have just
said. a self/anti dual tensor will only exists if the rank of the tensor is
some odd number and the dimension is 2*rank (for lorentzian signature). for
example, we can have a self dual 3-form in dimension 6.
c****w
发帖数: 565
5
来自主题: CivilEngineering版 - Question on Tensor (转载)
【 以下文字转载自 Mathematics 讨论区 】
发信人: cswbww (啥也别想,赶紧做!一份耕耘,一份收获!), 信区: Mathematics
标 题: Question on Tensor
发信站: BBS 未名空间站 (Mon Apr 6 04:43:28 2009)
which one of following is true? A is scalar, a and b are 2nd order tensors.
n*s
发帖数: 752
6
来自主题: Physics版 - 问个scalar, tensor的问题
我最近在看landau的elasticity的书
里面在讲材料free energy的时候,直接猜了一个F关于strain tensor u_{ik} 展开的
形式
原文如下:
since the free energy is a scalar, each term in the expansion of F must be a
scalar also. Twon independent scalars of the second degree can be formed
from the components of the symmetrical tensor u_{ik}: they can be taken as
the squared sum of the diagonal components (u_{ii}^2) and the sum of the
squares of all the components (u_{ik}^2).
我的问题是: 一个对称的二届张量有6个独立变量(假设3维),为什么只能组合出2个
标量? 需要加上关于某个变换不变的性质么?旋转能保证所有分量
s***e
发帖数: 323
7
来自主题: Science版 - Re: 谁能科普一下tensor的概念?

nod.
Jackson的tensor是给学过tensor的人的overview,想通过JACKSON
的如门,比较困难.不过可能对那些数学物理特有灵性的除外.
n*s
发帖数: 752
8
来自主题: Mathematics版 - tensor qutestion
if V and W are vector spaces and let f: V -> W be a linear map,
how to show f is a tensor of type (1,1)?
c****w
发帖数: 565
9
来自主题: Mathematics版 - Question on Tensor
which one of following is true? A is scalar, a and b are 2nd order tensors.
c*******d
发帖数: 353
10
In the book 'differential geometry' by Kreyszig, a result is frequently used
about the principal curvature k1, k2. For example, we know that gaussian
curvature K=k1*k2.
When lines of curvature (curves with principal curvature as tangents)
coincide with coordinate curves, it can be shown k1 = b_1^1, the first
element of a mixed tensor with degree 2 and 1 covariance indice. (p.131)
The author then equate k1 = b_11/g_11, k2=b_22/g_22. And this result is used
in several places. Here is what I am hav
N***l
发帖数: 52
11
google [nasa tensor]
the first result is a tutorial written by a nasa scientist
it's wirtten in the engineering point of view, pretty comprehensive.
c****l
发帖数: 88
12
最近看的paper里面总是出现,但是我又搞不清楚怎么算,所以比较郁闷。。。
比如一个矩阵M,怎么和两个单位矩阵做symmetrized tensor product阿?
多谢!
h******g
发帖数: 121
13
看书说,2*2*2 rank-3 tensor 和一个三维向量相乘会得到一个标量,不明白怎么乘的
,谢谢。
n*w
发帖数: 41
14
来自主题: Physics版 - How to use latex to input a tensor?
like \vec{A} but for tensor?
C******a
发帖数: 115
15
来自主题: Science版 - Re: 谁能科普一下tensor的概念?
张量积(tensor product)是这样定义的。
已有线性空间E和F,如果线性空间G以及双线性
映射g:E×F-->G满足:
对于任意的线性空间H以及双线性映射h:E×F-->H,
都存在唯一的线性映射f:G-->H使得h=fg,
则称G为E和F的张量积,记作E(*)F。
对于E中的x和F中的y,记g(x,y)为x(*)y,称为x和y的张量。
有定理说明两空间的张量积是存在的,
而且在同构的意义上是唯一的。
简单地说,张量积的作用就是把双线性映射提升为线性映射。
注意双线性是指固定任一个变量,关于另一个变量是线性的。
双线性和线性是互相不蕴含的两个概念。

E(*)F中并非所有元素都可以写成x(*)y的形式,
但一定都可以写成有限个xi(*)yi的和。
如果E和F是有限维,且e1,...,en; f1,...,fm是E和F的基,
则E(*)F的基可以取为ei(*)fj,所有的ei和fj。
所以E(*)F的维数是E和F的维数的乘积。
因此张量的符号是一个圆圈加一个乘号。
这里我找不到张量的符号,只好用(*)代替了。
一般大家都熟悉的直积符号是一个圆圈加一个加号。
因为两个线性空间的
c*******v
发帖数: 2599
16
来自主题: Programming版 - [bssd] 广义相对论=>神经网络几何化?
我对网上的GR讲法,tensor讲法非常不满意。
现在来个适合计算机人员的山寨版。
0.
线性函数的意思是,满足叠加和数乘两条规定
1.
vector就是一个一维数组v
2.
dual vector的意思是,对v做加权平均时候的权值组成的数组w
one form的意思是这个加权平均函数
3.
(m,n)tensor的意思是,对m个one form,n个vector都是线性的一个map,
或者说是对m个one form,n个vector再做一次加权平均。最后得到一个数字。
这个另一次加权平均函数,就叫做tensor.
所以Tensor是一个对running index复杂点的东西的加权平均函数。
你不可能在这个函数里面看到权值的平方。
4.
如果你知道一元函数的微积分。那么就可以推广到vector, tensor的
梯度,微积分,线积分,面积分,等等。这里形式上凑一下,没有多少难度。
多数都是线性函数。
5.
Einstein认为stress-energy tensor类比于质量,再定义一个Einstein tensor
可以求出来一个metric tensor.
这个metric te... 阅读全帖
g****t
发帖数: 31659
17
来自主题: Programming版 - [bssd]有本书
on the other hand, from stack over flow:
Tensors often offer more natural representations of data, e.g., consider
video, which consists of obviously correlated images over time. You can turn
this into a matrix, but it's just not natural or intuitive (what does a
factorization of some matrix-representation of video mean?).
Tensors are trending for several reasons:
our understanding of multilinear algebra is improving rapidly, specifically
in various types of factorizations, which in turn helps us... 阅读全帖
w****a
发帖数: 186
18
来自主题: _Graphics版 - 请教一下怎么读书
Multiple view geometry in computer vision是sfm方向最好的书,比较容易由浅入深
的学习,但是也比较局限在这个领域里面。简单地说,如果是要计算camera position
和sparse point sets的话,那么参考这本书是最好的。不可能完全读完,东西太多了
,读完了也忘了最适合的方法是先看一遍,然后需要细节的时候再回来仔细读。
可以看看前面基础几章,然后按照它的书的顺序,看epipolar geometry, 然后看N-
view,这些都是比较实用、而且重要的。我跳过了trifocal tensor和后面的N-view
tensor的部分,这些在我的project里面没有用到。具体而言,我觉得下列章节要不过
于理论、要不对我自己来说不是特别重要(但也仅限于我自己的经验):
14 Affine Epipolar Geometry
15 The Trifocal Tensor
16 Computation of the Trifocal Tensor T
17 N-Linearities and Multiple View Tensors
t*******r
发帖数: 22634
19
来自主题: Parenting版 - 人生的追求
认真起见,俺刚才重新去 wiki 查了 “Riemann curvature tensor”
(btw 我前面随便灌水是凭记忆随手写的),wiki 这么说的:
In the mathematical field of differential geometry,
the Riemann curvature tensor, or Riemann–Christoffel
tensor after Bernhard Riemann and Elwin Bruno
Christoffel, is the most standard way to express
curvature of Riemannian manifolds. 。。。 。。。 。。。
It is a central mathematical tool in the theory
of general relativity, the modern theory of gravity,
and the curvature of spacetime is in principle
observable via the geodes... 阅读全帖
g****t
发帖数: 31659
20
来自主题: Programming版 - [bssd]有本书
三个running index就是tensor
一个函数矩阵展开成级数,其系数就是tensor
函数矩阵其导数或者积分的级数系数和
原来函数矩阵系数之间的关系我认为就是tensor之间的关系


: Tensorflow 的tensor就是个数据结构,没啥数学意义。真正的计算都是matrix

s***n
发帖数: 821
21
来自主题: ME版 - deformation 是不是 strain?

Not true, you even can define a strain measure yourself. Also you can apply
your strain measure at any strain level. They are not limited to large strains.
Some of the strain measures are:

Green deformation tensor (Right Cauchy-Green tensor) C = transpose(F)F
Left Cauchy-Green tensor b= F tran(F)
C is a material strain tensor,
and b is a spatial strain
l**n
发帖数: 67
22
来自主题: Science版 - Re: 高手们帮个忙
I cannot be better than Goldstein in this case. It's in his book
'classical mechanics' section "eigenvalues of the inertia tensor"
In simple words,
In maths, what you want to solve is a similar transformation.
Under such a transformation(3-D rotation), your S tensor becomes
diagonal. To proof that this can always be done for a hermitian
tensor(matrix) needs one page. Just skip it here. And then
the problem simply reduced to find the eigenvectors and eigen-
values for the orginal tensor. You put
T*******x
发帖数: 8565
23
matrix是二维数组,tensor是多维数组。也可以这么看,一个matrix可以把两个vector
(一维数组)弄出一个数:uAv;而一个tensor可以把多个vector弄出一个数:T(u,v,w
)。
flow 是说在一个平面或曲面上的每一个点上都有这么一个tensor,每个点上的tensor
还不一样,这叫flow。
s**********e
发帖数: 33562
24
Grassmann Manifold 算是manifold里面最浅显的吧。tensor其实说穿了也很简单的概
念,很简单的东西也可以叫tensor,就看你是不是用了tensor分析里面比较深刻的工具。

发帖数: 1
25
在计算机时代,有个著名的摩尔定律,就是说同样成本每隔18个月晶体管数量会翻倍,
反过来同样数量晶体管成本会减半,这个规律已经很好地吻合了最近50年的发展,并且
可以衍生到很多类似的领域:存储、功耗、带宽、像素。
两年前的这个月是摩尔定律发表50周年,整整半个世纪。当时IEEE Spectrum为了纪念
摩尔定律50周年,特地发表了四篇关于摩尔定律的文章。其中一篇的题目叫“Moore’s
Law is Dying (and That Could Be Good)”,说的是摩尔定律不可能继续下去了。
1965年微芯片上的元件数增加了1倍,Gordon Moore于是预言这一趋势近期内将继续。
1975年他修改为每两年翻一翻,后来又说是18个月,或者说按指数律增长,每年46%。
这就是摩尔定律。摩尔定律预言了半导体产业50年的发展。摩尔预言了一个光辉的未来
,改变了世界。
这样高速的增长在其他产业是见不到的。美国的主粮玉米从1950年以后平均产量每年增
长2%,蒸汽涡轮式发电机把热能转换为电能,其效率在20世纪年增长率为1.5%,而1881
-2014室内灯光有效性(流明每瓦)年平均增长2.... 阅读全帖
c******a
发帖数: 4400
26
来自主题: Stock版 - 说一下AI的前景吧
volta里加tensor units确实是被狗逼得。
估计Tpu在有rumor的时候就开始准备了。不然现在肯定出不来。像按摩店那样PPT治国
还没回应人家上一个产品人家都出下一代了。
我觉得狗也是有了二代才开始宣传一代的。都有秘密武器啊。狗这个确实是巨大的威胁。
这么说来狗家第三代是不是也在开发了


: 所以一个公司长远真的要看CEO。苹果有几年搞得不好也就嗝屁了。还是
靠Jobs
审美独

: 特赢了。

: 问题是Nvda的老黄也是目光如炬而且敏而好学啊。娶白牛从AMD辞职然后
整cuda
强势搞

: AI Volta加tensor units到今天哪一步不是高瞻远瞩啊。而且有点华人企
业文化
特别适

: 合AI: 那些虚的都不整,比起苹果谷歌是少了点噱头,但一切看疗效。一
切看

: performance。要不是这样这么可能把牙膏厂都整急了。

: 你看他十分关注Tpu进展,加tensor units,开源DLA,说明他和团队一直
在警惕
的学习

: 着,完全没用有骄傲自大。老黄真是华人之光啊

: 就牛逼
阅读全帖
c******a
发帖数: 4400
27
狗的这个idea 确实不错,和tensorflow和在一起是有威胁。不过,现在看法是Volta兼
容tensor core已经把这个威胁neutralized。这个core比例可以调整的。甚至最后老黄
tensor core做的可能比狗家还好。就是不知道tensor core具体是怎么用的


: BAT 的问题比较麻烦。狗,tesla, fb 都是找的 Intel. 不知道是纯粹价格因素
,还是

: 工艺或者其他地方有要求。如果工艺上有要求的话,BAT不一定能找到地方自己
做。

: :买FPGA来玩甚至投产 如果看不出来这是不是有心要做ASIC的话 不知道看不得
出来并

: 不是为了方便买GPU?

: :

c******a
发帖数: 4400
28
老黄干了两件极其牛的事情,未来就知道其意义了:
TPU出世,老黄方向身段, volta里加入tensor core,成功把威胁neutralize,好像有
好一阵子没有tpu消息了,谷歌自己都不怎么提TPU了,不知道是不是在憋什么大招,看
样子不像
老黄做了tensor rt,现在到三代了。可以把inference加速100x。这个足以neutralize
各个小startup的新品种processors的威胁,这些新品种大部分是ASIC针对神经网络寻
求极度优化。tensor
RT3就是从软件端实现这些inference优化。成本低多了!这样就算某些应用ASIC稍快,
综合考虑还是没人用了。而且老黄家是一个稳定的平台,小startup比不了的。
g****t
发帖数: 31659
29
来自主题: Programming版 - [bssd]有本书
For reference:
http://stats.stackexchange.com/questions/198061/why-the-sudden-fascination-with-tensors


: on the other hand, from stack over flow:

: Tensors often offer more natural representations of data, e.g.,
consider

: video, which consists of obviously correlated images over time. You
can turn

: this into a matrix, but it's just not natural or intuitive (what does
a

: factorization of some matrix-representation of video mean?).

: Tensors are trending for several re... 阅读全帖
o****l
发帖数: 21
30
来自主题: Macromolecules版 - 材料力学 为什么要用张量分析?
It is not required to use tensor analysis. But if you have experience in
tensor analysis when you study strength of materials, you'll further your
study in elasticity and continumm without much difficulty since their theories
are based on tensor analysis mathematically.
f*******i
发帖数: 8492
31
来自主题: Mathematics版 - 请教一道关于张量的题目
对于vector还好,到了rank two tensor,就有些头晕
题目是这样的:
T*=Q。T。Qt (式子中所有都是rank two tensor,Qt为Q的transport,。为dot
product)
要求证明
Grad(T*)=(Grad T)*= Q。(Grad T) (Grad就是那个倒三角的运算符号)
如果是vector的情况下,我可以证明出
Grad(T*)=Q。(Grad T)。Qt
但是在rank two tensor的情况下,好像就很复杂
E*******1
发帖数: 3464
32
好像有很多理科生也搞不清楚啊。
浮力等于排开水的重力这虽然是原始的浮力定义,但实际上是浮力计算的一种方法或是
推论,上一层次,应该是液体对物体表面压强 p=rou*g*h,这样才得出了F=pS=rou*g*h
*S=rou*g*V=Mg,再上一层次,应该是连续介质力学关于平衡态下: 外力+div (stress
tensor)=0,对于各向同性流体而言,div (stress tensor)=grad(p),不信可参考朗
道连续介质力学,这样外力=-grad(单位体积势能),所以,势+p=Constant,而此系统的
势正好是重力势rou*g*h。而每一步不是充要条件,排开水这个说法已经不知道是多少
步的推论结果了,所以初中学的好回答不了这个问题也很正常吧,吵着说人家初中没学
好的肯定都是物理没学好的
所以我觉得,如果承认以上都正确,我想不出来这个问题有不对的地方。但是一切成立
的充分条件是,液体系统仍然满足各向同性连续介质体方程,这个好象对于表面体很难
成立吧,我流体学的很肤浅,不知道对不对
m**********e
发帖数: 12525
33
来自主题: Military版 - 近代最大的大牛是维特根斯坦
给你出个tensor category题
这把年纪还做tensor题不丢人现眼
s***h
发帖数: 487
34
四个变量上四维空间 tensor 不行么?
实在不行上 2^4 = 16 维 tensor 总可以了吧


: 統計學

: 每個維度只取兩個數

: 頂多加大維度

: 然後用矩陣算

: 所以只能算到兩兩的相干性

: 四個詞的相干性

: 就推不出來了

T*******x
发帖数: 8565
35
来自主题: Military版 - 科普一下张量吧
tensorflow,张量流,是什么呢?这是Google发明的一个词,数上一般只说vector
flow。
flow是什么呢?比如想象空间中的一个光滑曲面,曲面上的函数叫flow。也就是在曲面
的每一个点上都取一个不同的值,这个函数(值)不就在光滑的曲面上flow起来了吗?
如果每个点上取值不是一个数,而是一个向量,想象曲面上每一点切平面上的一个向量
,每个点上的向量大小和方向还不同,这就是一个vector flow。可以想象成一个向量
在一个光滑曲面上flow起来了,flow到不同的地方,它的大小和方向还可以逐渐改变。
tensor,张量,本身也可以看成是一个向量。哪个空间的呢?张量空间的。张量空间也
是一个线性空间,每个元素,也就该空间的每个向量,是一个张量。这样看的话,
tensor flow是vector flow的一个特例。
张量空间是要定义一下的。数学上这个定义比较抽象。
w*****g
发帖数: 103
36
来自主题: Medicine版 - 请问晚上睡觉磨牙是怎么回事?
睡觉磨牙(bruxism )原因是咀嚼肌痉挛,通常该患者伴有游泳或运动时腓肠肌痉挛(尤
其是冷水),但其年龄大于50左右时,也容易发生腓肠肌痉挛。有时伴有耳鸣(经久不
愈),这也是由于肌肉痉挛引起 (by contraction of tensor palatini, levator
veli palatini, tensor tympani, salpinopharyngeal, or superior constrictor
muscles)
更多的信息 mail to:w*****[email protected]
t*******r
发帖数: 22634
37
来自主题: Parenting版 - 人生的追求
这个主要是自然语言的歧义,还是得靠码工用 formal logics 出马。。。
养娃的三种方式,推养、放养、以及不养。
推养,其实就是 tightly constrained,然后你不断的移动
那个 constraint,于是被 constrained 就往前动。。。
放养,其实就是 loosely constrained。。。但是这样一来
被 constrained 在里面懒惰不懂咋办?OK,你还需要动态加上
一个合适的不断向前移动的 curvature tensor。。。
不养,就是 no constraint,no curvature tensor。。。
比如黑人区街上娃。。。
s*********r
发帖数: 1728
38
来自主题: Stock版 - 买nvda就是买deep learning
非专家 说点皮毛
TPU 是google 自己customized的东东 优化算法(trade精度with speed/power), 用
在TENSOR FLOW APPLICATION上
是CPU 和GPU 之外的硬件辅助,对NVDA/INTC 影响不大
TechRadar: What is the chip exactly?
Norm Jouppi: [The] Tensor Processing Unit (TPU) is our first custom
accelerator ASIC [application-specific integrated circuit] for machine
learning [ML], and it fits in the same footprint as a hard drive. It is
customized to give high performance and power efficiency when running
TensorFlow.
What makes the TPU different from yo... 阅读全帖
c******a
发帖数: 4400
39
狗看来也是认准将来N这个方向市场巨大,从一个侧面说明这个市场确实不可限量。你
当狗花这么多钱来研发是吃多了撑着的?现在公开的暂时没有挑战N家的主要市场可能
是个策略问题,但是威胁无疑是巨大的。
volta加了tensor unit就是为了解决TPU这个威胁。N家勇敢的捅这一刀回去。换几年前
可能没这勇气,现在N家也是硅谷一霸了哪能随便被欺负。不过话说回来N家戏路比狗窄
多了,属于一招尖吃遍天,狗是垂直方向吃通,软件上有王者的意思,谁都没奈何,所
以N还是犹抱琵琶半遮面,意思是官人,你再欺负咱,咱就要告官了啊!
现在这这竞争简直是白热化了,volta里面的tensor unit是否能有效整合,是否能降低
功耗,这是个问题。狗家踢屁油真的可靠?training真的能比N的合用?这也是未知数
c******a
发帖数: 4400
40
来自主题: Stock版 - 说一下AI的前景吧
所以一个公司长远真的要看CEO。苹果有几年搞得不好也就嗝屁了。还是靠Jobs审美独
特赢了。
问题是Nvda的老黄也是目光如炬而且敏而好学啊。娶白牛从AMD辞职然后整cuda强势搞
AI Volta加tensor units到今天哪一步不是高瞻远瞩啊。而且有点华人企业文化特别适
合AI: 那些虚的都不整,比起苹果谷歌是少了点噱头,但一切看疗效。一切看
performance。要不是这样这么可能把牙膏厂都整急了。
你看他十分关注Tpu进展,加tensor units,开源DLA,说明他和团队一直在警惕的学习
着,完全没用有骄傲自大。老黄真是华人之光啊


: 任何可能都有,你可以回想一下motorola,nokia,intel ...

: 任何产品和技术都会更新换代,如果nvda能够抓住机会,会牛逼一阵子,要不也
就牛逼

: 几年,尤其在semiconductor这个行业

g*****h
发帖数: 15
41
来自主题: LeisureTime版 - Math Learning Ebooks Collection
Math Learning Ebooks Collection
English | 2011 | PDF | 700MB
130 Math Learning Ebooks Collection,Books List:
Algebra
Abstract Algebra
Algebra Groups
Algebra Challenging Problems
Algebraic groups and Discontinuous Subgroups
Elementary Linear Algebra
Elements of Abstract and Linear Algebra
Feynman Physics Lectures
Lectures on Matricies
Linear Algebra
Math Resource Part I Algebra
Complex Algebra 2001
Fundamental Problems in Algorithmic Algebra
Workbook in Higher Algebra
Basic Math and Algerba
Matri... 阅读全帖
N******K
发帖数: 10202
42
网上搜了搜 没啥合适的库 要么太老了 要么就有大坑 这些库都不能互联互通
所以自己搞一个库 有什么问题自己清楚
本库的目标是
(1)实现新的图像分析算法
(2)充分利用已有的算法:把本库作为一个接口 调用其他各个c++矩阵库和图像算法库
实现步骤:
一维数组是基础 对应的是内存的连续线性存储
数组的一个元素可是一个double也可以是一个double裸数组
然后二维 也就是矩阵 各个元素线性映射(存储)到一维数组
矩阵每一个元素是一个double, float 或 int
不仅仅是存储 而且是有线性计算 定义+ - * /
复杂的运算可以调用eigen或者其他c++库
然后三维 是图像 各个元素线性映射(存储)到一位数组
图像的一个元素(像素)可是一个double也可以是一个double裸数组 或者float int8 等
图像主要实现的是各种计算 比如滤波器
打算一直造到4维数组 图像序列
这个目前要用于存数据 还没想好相关计算
不定义 像素这个类:
(1)如果一个像素是是3double x 3double结构(比如tensor) 那么就存为连续9个
double
定义像... 阅读全帖
g****t
发帖数: 31659
43
来自主题: Programming版 - mxnet/tf的一个比较blog
Tensor xxx的这些做marketing的,到底知道不知道什么叫tensor?
这是力学术语啊。。。
S*******e
发帖数: 525
44
来自主题: Programming版 - Spark 和 Tensorflow 线性回归问题
多谢大牛。 是的, Y 是Tensor("ToFloat_1:0", shape=(25,), dtype=float32)。
Y_predicted 是Tensor("add:0", shape=(25, 1), dtype=float32)。 我用
Y_predicted = tf.reshape(Y_predicted, [25])
好像loss overflow了。不知怎么改Cost 函数
我刚看这些东西, Java比较熟。 Python仅初级水平。
x***4
发帖数: 1815
45
正解!现在这些项目都是开源的,很少说一样东西只有用某一个项目才能做。相反大家
都是上班混饭吃的,不要浪费时间给别人做tester。一个项目用的人多,bug自然容易
被发现,你有问题也容易在stackoverflow之类的地方找到答案。
上tensor flow就对了。或着更进一步,上keras (tensor flow自己支持的high level
api)。
r*g
发帖数: 3159
46
来自主题: Programming版 - [bssd] 广义相对论=>神经网络几何化?
tensor本身是多重线性,但GR找到的关系是非线性的:把一个四阶tensor取各种平均(
求trace),得到的两阶张量可以描述曲率,然后和能动张量联系起来,就是GR方程。
h*i
发帖数: 3446
47
来自主题: Programming版 - [bssd] 广义相对论=>神经网络几何化?
如果要搞几何化,你都研究Grassmann了,研究tensor不如研究multivector (of
Cliford Algebra, aka. Geometric Algebra),tensor太general了,不适合几何化。
而multivector,与几何是一一对应的。
现代物理学(包括广义相对论,量子力学)用Geometric Algebra来描述非常简单明了
,这方面的书可以看看
https://www.amazon.com/Geometric-Algebra-Physicists-Chris-Doran/dp/
0521715954
g****t
发帖数: 31659
48
来自主题: Programming版 - [bssd] 广义相对论=>神经网络几何化?
我多年前phd论文是PDE的formal power series的研究。
写过不少代码。例如一个多元Fourier series的反函数,
梯度,积分,以及函数迭代,小扰动等等。


: 如果要搞几何化,你都研究Grassmann了,研究tensor不如研究multivector (
of

: Cliford Algebra, aka. Geometric Algebra),tensor太general了,不适合几
何化。

: 而multivector,与几何是一一对应的。

: 现代物理学(包括广义相对论,量子力学)用Geometric Algebra来描述非常简
单明了

: ,这方面的书可以看看

: https://www.amazon.com/Geometric-Algebra-Physicists-Chris-Doran/dp/

: 0521715954

g****t
发帖数: 31659
49
来自主题: Programming版 - 各位自动驾驶技术发烧友们
这里有个概念问题我记得以前提过我不太同意现在的数据结构。在这里tensor是"all
the coordinates for a tensor have the same length, "。
我个人认为五年内也许会走到多维的list,
而不是多维数组。数组的形状是方的。多维list有extra优势。
慢慢会被挖出来. DNN至少可以把最后的表示层不要弄成全联接的。


: 感觉intel的ngraph就有点这个意思,虽然是其他domain的

: https://github.com/NervanaSystems/ngraph

: 各位大佬真是厉害

s********m
发帖数: 171
50
来自主题: Biology版 - 请教一个关于RDC的问题
PCS和RDC是有关联的,这两者共享一个tensor,只要知道其中的一个tensor值,RDC可
以推出来。如果PCS都变了,肯定是样品发生了变化。而且如果你的tag存在Isomers的
话,就更复杂了,你看到的是一个平均了的现象。当时我看那篇JACS时,就感到有点奇
怪。
1 2 3 4 5 6 下页 末页 (共6页)