Free SKILL.md scraped from GitHub. Clone the repo or copy the file directly into your Claude Code skills directory.
npx versuz@latest install hiyenwong-ai-collection-collection-skills-information-theory-neural-codinggit clone https://github.com/hiyenwong/ai_collection.gitcp ai_collection/SKILL.MD ~/.claude/skills/hiyenwong-ai-collection-collection-skills-information-theory-neural-coding/SKILL.md---
name: information-theory-neural-coding
description: "应用信息论框架分析神经编码和神经群体动力学。包含互信息、信息瓶颈、传递熵等方法在神经科学中的应用。"
---
# 神经编码的信息理论分析 (Information Theory for Neural Coding)
## 概述
应用信息论框架分析神经编码和神经群体动力学。包含互信息、信息瓶颈、传递熵等方法在神经科学中的应用。
本技能整合了神经科学领域的前沿方法论,为研究人员和开发者提供实用的技术指导。
## 核心概念
- **互信息 (Mutual Information)**
- **信息瓶颈 (Information Bottleneck)**
- **传递熵 (Transfer Entropy)**
- **神经编码效率**
- **群体编码的信息几何**
## 应用场景
- 神经编码效率评估
- 信息流向分析
- 感觉信息处理量化
- 神经群体信息容量
## 方法论
- Kraskov-Stögbauer-Grassberger估计
- 核密度估计
- 信息瓶颈优化
- 降维与信息保持
## 代码示例
```python
from sklearn.feature_selection import mutual_info_regression
import numpy as np
def compute_neural_mutual_information(neural_data, stimulus):
"""
计算神经活动与刺激之间的互信息
neural_data: (n_trials, n_neurons) 神经发放数据
stimulus: (n_trials,) 刺激标签或连续值
"""
# 对每个神经元计算与刺激的互信息
mi_scores = []
for neuron_idx in range(neural_data.shape[1]):
neuron_activity = neural_data[:, neuron_idx]
mi = mutual_info_regression(
neuron_activity.reshape(-1, 1),
stimulus
)[0]
mi_scores.append(mi)
return np.array(mi_scores)
def compute_transfer_entropy(source, target, delay=1):
"""
计算从source到target的传递熵
衡量信息从source流向target的程度
"""
# 使用Kraskov估计或离散化方法
# 这里使用简化的离散版本
from sklearn.metrics import mutual_info_score
# 离散化
source_binned = np.digitize(source, bins=10)
target_binned = np.digitize(target, bins=10)
target_delayed = np.roll(target_binned, delay)
# TE = I(target_future; source_past | target_past)
# 简化计算
joint = np.column_stack([target_binned[delay:], source_binned[:-delay], target_delayed[delay:]])
# ... 计算条件互信息
return te_value
```
## 相关工具与库
- **Python**: NumPy, SciPy, scikit-learn
- **深度学习**: PyTorch, TensorFlow
- **神经影像**: Nilearn, MNE-Python, ANTsPy
- **拓扑分析**: GUDHI, Ripser, scikit-tda
- **信息论**: PyInform, JIDT
## 学习资源
### 论文
- 相关领域的经典和最新论文
- 建议关注 NeurIPS, ICML, Nature Neuroscience, PLOS Computational Biology
### 数据集
- Human Connectome Project (HCP)
- OpenNeuro
- EEG-BIDS 标准数据集
## 激活关键词
- information theory neural coding
- 神经编码的信息理论分析
- 互信息
## 备注
本技能基于神经科学领域的前沿研究方法论创建,反映了当前该领域的最新发展趋势。
由于网络限制,技能内容基于领域专业知识整理,建议在实际应用时参考最新文献。
---
*技能生成时间: 2026-04-12*
*来源: 自动化神经科学研究工作流*
## Activation Keywords
- information-theory-neural-coding
- information theory neural
- information theory neural coding
## Tools Used
- `read` - 读取技能文档
- `write` - 创建输出
- `exec` - 执行相关命令
## Instructions for Agents
1. 理解技能的核心方法论
2. 根据用户问题提供针对性回答
3. 遵循最佳实践
## Examples
### Example 1: 基本查询
**User:** 请解释 Information Theory Neural Coding
**Agent:** Information Theory Neural Coding 是关于...