Free SKILL.md scraped from GitHub. Clone the repo or copy the file directly into your Claude Code skills directory.
npx versuz@latest install hiyenwong-ai-collection-collection-skills-brain-inspired-intelligence-paradigmgit clone https://github.com/hiyenwong/ai_collection.gitcp ai_collection/SKILL.MD ~/.claude/skills/hiyenwong-ai-collection-collection-skills-brain-inspired-intelligence-paradigm/SKILL.md---
name: brain-inspired-intelligence-paradigm
description: 类脑智能范式方法论。从神经科学视角重新思考智能形成与演化,提出Brain-like Neural Network (BNN)新范式,涵盖结构组织、学习机制、演化路径三大维度。触发词:类脑智能、BNN、神经科学智能、脑启发范式、brain-like neural network、intelligence paradigm、neuroscience AI。
user-invocable: true
---
# 类脑智能范式 - Brain-inspired Intelligence Paradigm
## 核心思想
**来源:** arXiv:2601.19508 - "Rethinking Intelligence: Brain-like Neural Network"
人工神经网络与生物神经系统在三个核心维度存在根本差异:
1. **结构组织** - 层级 vs 网络
2. **学习机制** - 反向传播 vs 神经可塑性
3. **演化路径** - 优化 vs 适应性
BNN 提出从神经科学视角重新思考智能,建立新的神经网络范式。
---
## 三维分析框架
### 维度 1: 结构组织对比
| 特征 | ANN | 生物神经系统 | BNN 理念 |
|------|-----|--------------|----------|
| 拓扑 | 层级前馈 | 小世界网络 | 网状拓扑 |
| 连接 | 固定结构 | 动态重构 | 自适应连接 |
| 模块 | 人工定义 | 功能柱/集群 | 功能涌现 |
### 维度 2: 学习机制对比
| 特征 | ANN | 生物神经系统 | BNN 理念 |
|------|-----|--------------|----------|
| 信号 | 连续值 | 脉冲事件 | 脉冲编码 |
| 学习 | 反向传播 | STDP/Hebbian | 本地可塑性 |
| 优化 | 梯度下降 | 神经调制 | 多机制协同 |
### 维度 3: 演化路径对比
| 特征 | ANN | 生物神经系统 | BNN 理念 |
|------|-----|--------------|----------|
| 目标 | 任务最优 | 生存适应 | 适应性智能 |
| 发展 | 预训练 | 发育过程 | 渐进构建 |
| 稳定 | 权重固定 | 稳态可塑 | 动态平衡 |
---
## BNN 设计原则
### Principle 1: 结构涌现
```python
def structural_emergence(connectivity_matrix, activity_patterns):
"""
让结构从活动中涌现,而非人工设计
核心思想:
- 初始为随机稀疏连接
- 通过 STDP 和神经活动动态调整
- 功能模块自然形成
"""
# 1. 初始化稀疏随机连接
n_neurons = connectivity_matrix.shape[0]
sparse_connections = initialize_sparse_network(n_neurons, sparsity=0.1)
# 2. 基于 STDP 动态调整
for pattern in activity_patterns:
strengthened, weakened = stdp_update(sparse_connections, pattern)
sparse_connections = apply_plasticity(sparse_connections, strengthened, weakened)
# 3. 检测涌现的功能模块
functional_modules = detect_modules(sparse_connections)
return functional_modules
```
### Principle 2: 本地可塑性
```python
class LocalPlasticity:
"""
本地可塑性规则 - 无需全局信号
生物神经元仅依赖本地信息:
- 前突触活动
- 后突触活动
- 神经调制信号(可选)
"""
def stdp_rule(self, pre_spike_time, post_spike_time,
tau_plus=20.0, tau_minus=20.0,
A_plus=0.1, A_minus=0.1):
"""
STDP 规则实现
核心公式:
Δw = A_plus * exp(-Δt/τ_plus) if Δt > 0 (pre before post)
Δw = -A_minus * exp(Δt/τ_minus) if Δt < 0 (post before pre)
"""
delta_t = post_spike_time - pre_spike_time
if delta_t > 0:
# LTP: 先前后后,增强连接
weight_change = A_plus * np.exp(-delta_t / tau_plus)
else:
# LTD: 先后后前,减弱连接
weight_change = -A_minus * np.exp(delta_t / tau_minus)
return weight_change
def hebbian_rule(self, pre_activity, post_activity, learning_rate=0.01):
"""
Hebbian 规则简化版
"一起激活,一起连接"
Δw = η * pre * post
"""
return learning_rate * pre_activity * post_activity
```
### Principle 3: 多机制协同
```python
class MultiMechanismLearning:
"""
多学习机制协同
生物系统不依赖单一机制:
- STDP (时间依赖可塑性)
- Homeostatic plasticity (稳态可塑性)
- Neuromodulation (神经调制)
- Structural plasticity (结构可塑性)
"""
def __init__(self):
self.stdp_strength = 1.0
self.homeostatic_target = 0.5 # 目标激活率
self.neuromodulator_level = 0.0
def combined_update(self, weights, pre_spikes, post_spikes,
avg_activity, reward_signal):
"""
多机制协同更新
参数:
- weights: 当前权重
- pre_spikes, post_spikes: 脉冲时间
- avg_activity: 平均激活水平
- reward_signal: 神经调制信号
"""
# 1. STDP 更新
stdp_delta = self.stdp_update(pre_spikes, post_spikes)
# 2. 稳态调节
homeostatic_delta = self.homeostatic_regulation(avg_activity)
# 3. 神经调制影响
neuromodulator_gate = self.neuromodulation_gate(reward_signal)
# 4. 综合
total_delta = neuromodulator_gate * (stdp_delta + homeostatic_delta)
return weights + total_delta
def homeostatic_regulation(self, avg_activity):
"""
稳态可塑性
维持神经元在合理激活范围
过高激活 → 全局抑制
过低激活 → 全局增强
"""
if avg_activity > self.homeostatic_target + 0.1:
return -0.05 * (avg_activity - self.homeostatic_target)
elif avg_activity < self.homeostatic_target - 0.1:
return 0.05 * (self.homeostatic_target - avg_activity)
return 0.0
```
---
## 应用场景
### 1. 认知任务建模
```python
# 示例:用 BNN 理念建模决策任务
class BNNDecisionNetwork:
def __init__(self, n_options, n_neurons_per_option=100):
# 网状而非层级结构
self.network = self.create_mesh_topology(n_options * n_neurons_per_option)
self.plasticity = MultiMechanismLearning()
def decide(self, inputs, exploration_steps=1000):
# 让决策从网络活动中涌现
activity = self.run_with_plasticity(inputs, exploration_steps)
decision = self.extract_decision(activity)
return decision
```
### 2. 自适应控制
```python
# 示例:用 BNN 理念设计自适应控制器
class BNNController:
def __init__(self, n_sensors, n_actions):
# 稳态-可塑性平衡
self.sensor_layer = LocalPlasticityLayer(n_sensors)
self.action_layer = LocalPlasticityLayer(n_actions)
self.connect_with_homeostatic_regulation()
```
---
## 设计检查清单
创建 BNN 系统时,检查:
| 检查项 | 问题 | 答案应倾向于 |
|--------|------|--------------|
| 结构 | 结构是人工设计还是活动涌现? | 涌现 |
| 学习 | 学习依赖全局信号还是本地信息? | 本地 |
| 目标 | 目标是单一任务还是适应性生存? | 适应性 |
| 稳定 | 系统是静态最优还是动态平衡? | 动态平衡 |
| 编码 | 信息是连续值还是脉冲事件? | 脉冲 |
---
## 与现有方法的对比
| 方法 | 结构 | 学习 | 目标 | BNN 评分 |
|------|------|------|------|----------|
| MLP | 层级固定 | 反向传播 | 任务最优 | 低 |
| CNN | 层级固定 | 反向传播 | 任务最优 | 低 |
| GNN | 图结构 | 反向传播 | 任务最优 | 中 |
| SNN | 网状可选 | STDP可选 | 任务最优 | 中 |
| Neuromorphic | 网状 | STDP | 能效优先 | 中高 |
| **BNN** | **涌现** | **多机制** | **适应性** | **高** |
---
## 进一步阅读
1. arXiv:2601.19508 - BNN 原论文
2. arXiv:2510.27379 - SNN 综述
3. Nature: Forward-Forward SNN - 无反向传播学习
---
## 相关 Skills
- `bio-neuron-snn-learning` - 生物神经元参数学习
- `neuromodulated-synaptic-plasticity` - 神经调制可塑性
- `brain-higher-order-structures` - 脑网络高阶结构
- `spikingjelly-framework` - SpikingJelly 框架