向量积的运算法则
设 $\vec{a}, \vec{b}, \vec{c}\in\mathbb{R}^3$, 证明:
\[
\vec{a}\times(\vec{b}+\vec{c})=\vec{a}\times\vec{b}+\vec{a}\times\vec{c}
\]
注: 这是向量积的分配律.
设 $\vec{a}, \vec{b}, \vec{c}\in\mathbb{R}^3$, 证明:
\[
\vec{a}\times(\vec{b}+\vec{c})=\vec{a}\times\vec{b}+\vec{a}\times\vec{c}
\]
注: 这是向量积的分配律.
1
不妨设 $\vec{a}\neq\vec{0}$, 且 $\vec{b}\not\parallel\vec{c}$. ($\vec{b}$ 与 $\vec{c}$ 平行的情形容易证明.)
$\vec{a}\times(\vec{b}+\vec{c})$, $\vec{a}\times\vec{b}$ 和 $\vec{a}\times\vec{c}$ 均与向量 $\vec{a}$ 垂直, 也即都在以 $\vec{a}$ 为法向量的平面内. 故存在 $\lambda,\mu\in\mathbb{R}$, 使得
\[
\vec{a}\times(\vec{b}+\vec{c})=\lambda\vec{a}\times\vec{b}+\mu\vec{a}\times\vec{c}.
\]
特别地, 令 $|\vec{c}|=\varepsilon$, 两边取极限 $\varepsilon\rightarrow 0$. 注意到叉积是连续映射, 左边趋于 $\vec{a}\times\vec{b}$, 右边趋于 $\lambda\vec{a}\times\vec{b}$, 故有
\[
\vec{a}\times\vec{b}=\lambda\vec{a}\times\vec{b}.
\]
这说明 $\lambda=1$. 同理, 若令 $|\vec{b}|=\varepsilon\rightarrow 0$, 则推出 $\mu=1$. 因此
\[
\vec{a}\times(\vec{b}+\vec{c})=\vec{a}\times\vec{b}+\vec{a}\times\vec{c}.
\]