cuda atomic

时间: 2023-11-09 20:09:26 浏览: 186
CUDA中的原子操作(atomic operation)是一种能够确保多个线程访问共享内存时的数据一致性的机制。原子操作可以保证某个特定内存位置的读取、修改或写入操作不会被其他线程中断,从而避免数据竞争问题。 在CUDA中,原子操作是通过特殊的函数来实现的,这些函数使用了硬件级别的原子指令。CUDA提供了不同类型的原子操作,如原子加法、原子减法、原子与、原子或等等。这些原子操作可以应用在不同的数据类型上,包括整型、浮点型和指针类型。 使用原子操作时需要注意以下几点: 1. 原子操作可能会引起较高的开销,因为它们需要保证多个线程之间的同步。因此,只有在必要时才应该使用原子操作。 2. 原子操作仅适用于共享内存,不能用于全局内存。 3. 原子操作不能保证全局的顺序一致性,只能保证特定内存位置的一致性。 下面是一个示例代码,展示了如何在CUDA中使用原子操作进行加法: ```cpp __global__ void atomicAddKernel(int* data) { int tid = threadIdx.x + blockIdx.x * blockDim.x; atomicAdd(data, tid); } int main() { int data = 0; int* dev_data; cudaMalloc((void**)&dev_data, sizeof(int)); cudaMemcpy(dev_data, &data, sizeof(int), cudaMemcpyHostToDevice); atomicAddKernel<<<1, 256>>>(dev_data); cudaMemcpy(&data, dev_data, sizeof(int), cudaMemcpyDeviceToHost); cudaFree(dev_data); printf("Result: %d\n", data); // 输出结果应为 32640 return 0; } ```
阅读全文

相关推荐

源代码如下 请进行修改 import torch import torch.nn as nn import torch.optim as optim import pandas as pd from rdkit import Chem from rdkit.Chem import Draw, rdMolDescriptors from torch_geometric.data import Data, Batch from torch_geometric.nn import GCNConv, global_mean_pool from torch_geometric.loader import DataLoader import matplotlib.pyplot as plt from sklearn.preprocessing import StandardScaler import os import numpy as np import random # 设置随机种子以确保结果可复现 def set_seed(seed): torch.manual_seed(seed) torch.cuda.manual_seed_all(seed) np.random.seed(seed) random.seed(seed) torch.backends.cudnn.deterministic = True torch.backends.cudnn.benchmark = False set_seed(42) # ------------------------- 工具函数 ------------------------- def validate_atomic_nums(atomic_nums): """验证并修正原子类型,确保为整数且合法""" valid_atoms = {1, 6, 7, 8, 16} # H, C, N, O, S # 处理PyTorch张量类型 if isinstance(atomic_nums, torch.Tensor): atomic_nums = atomic_nums.cpu().numpy() if atomic_nums.is_cuda else atomic_nums.numpy() # 处理列表类型 if isinstance(atomic_nums, list): # 转换为NumPy数组 atomic_nums = np.array(atomic_nums) # 确保原子类型是一维数组 if atomic_nums.ndim > 1: atomic_nums = atomic_nums.flatten() # 转换为整数并验证 atomic_nums = np.round(atomic_nums).astype(int) return [num if num in valid_atoms else 6 for num in atomic_nums] # 默认替换为碳原子 def smiles_to_graph(smiles): """SMILES → 分子图,使用兼容的价态计算方法""" mol = Chem.MolFromSmiles(smiles) if mol is None: return None try: Chem.SanitizeMol(mol) except Exception as e: print(f"分子净化失败: {e}") return None atom_feats = [atom.GetAtomicNum() for atom in mol.GetAtoms()] edge_index = [] for bond in mol.GetBonds(): i, j = bond.GetBeginAtomIdx(), bond.GetEndAtomIdx() edge_index += [(i, j), (j, i)] x = torch.tensor(atom_feats, dtype=torch.long).view(-1, 1) edge_index = torch.tensor(edge_index, dtype=torch.long).t().contiguous() return Data(x=x, edge_index=edge_index) def augment_mol(smiles): """数据增强:随机加氢""" mol = Chem.MolFromSmiles(smiles) if not mol: return smiles try: mol = Chem.AddHs(mol) except: pass return Chem.MolToSmiles(mol) def generate_realistic_edges(node_features, avg_edge_count=20, atomic_nums=None): """生成符合价键约束的边,确保原子类型为整数且合法""" num_nodes = node_features.shape[0] if num_nodes < 2 or atomic_nums is None: return torch.empty((2, 0), dtype=torch.long), torch.tensor([]) # 验证并修正原子类型,确保为整数列表 atomic_nums = validate_atomic_nums(atomic_nums) max_valence = {1: 1, 6: 4, 7: 3, 8: 2, 16: 6} edge_set = set() edge_index = [] used_valence = {i: 0 for i in range(num_nodes)} bond_types = [] similarity = torch.matmul(node_features, node_features.transpose(0, 1)).squeeze() norm_similarity = similarity / (torch.max(similarity) + 1e-8) edge_probs = norm_similarity.view(-1) num_possible_edges = num_nodes * (num_nodes - 1) num_edges = min(avg_edge_count, num_possible_edges) _, indices = torch.topk(edge_probs, k=num_edges) for idx in indices: u, v = idx // num_nodes, idx % num_nodes if u == v or (u, v) in edge_set or (v, u) in edge_set: continue atom_u, atom_v = atomic_nums[u], atomic_nums[v] # 确保原子编号在 max_valence 字典中 if atom_u not in max_valence or atom_v not in max_valence: continue avail_valence_u = max_valence[atom_u] - used_valence[u] avail_valence_v = max_valence[atom_v] - used_valence[v] if avail_valence_u >= 1 and avail_valence_v >= 1: edge_set.add((u, v)) edge_index.append([u, v]) used_valence[u] += 1 used_valence[v] += 1 if atom_u not in {1} and atom_v not in {1} and \ avail_valence_u >= 2 and avail_valence_v >= 2 and \ np.random.random() < 0.3: bond_types.append(2) used_valence[u] += 1 used_valence[v] += 1 else: bond_types.append(1) return torch.tensor(edge_index).t().contiguous(), torch.tensor(bond_types) def build_valid_mol(atomic_nums, edge_index, bond_types=None): """构建合法分子,确保原子类型为整数且合法""" # 验证并修正原子类型 atomic_nums = validate_atomic_nums(atomic_nums) mol = Chem.RWMol() for num in atomic_nums: mol.AddAtom(Chem.Atom(num)) added_edges = set() bond_types = bond_types.tolist() if bond_types is not None else [] for j in range(edge_index.shape[1]): u, v = edge_index[0, j].item(), edge_index[1, j].item() if u < len(atomic_nums) and v < len(atomic_nums) and u != v and (u, v) not in added_edges: bond_type = Chem.BondType.SINGLE if j < len(bond_types) and bond_types[j] == 2: bond_type = Chem.BondType.DOUBLE mol.AddBond(u, v, bond_type) added_edges.add((u, v)) added_edges.add((v, u)) try: Chem.SanitizeMol(mol) return mol except Exception as e: print(f"分子构建失败: {e}") return None def mol_to_graph(mol): """RDKit Mol → 分子图""" if mol is None: return None try: Chem.SanitizeMol(mol) except: return None atom_feats = [atom.GetAtomicNum() for atom in mol.GetAtoms()] edge_index = [] for bond in mol.GetBonds(): i, j = bond.GetBeginAtomIdx(), bond.GetEndAtomIdx() edge_index += [(i, j), (j, i)] x = torch.tensor(atom_feats, dtype=torch.long).view(-1, 1) edge_index = torch.tensor(edge_index, dtype=torch.long).t().contiguous() return Data(x=x, edge_index=edge_index) # ------------------------- 数据集 ------------------------- class MolecularGraphDataset(torch.utils.data.Dataset): def __init__(self, path): df = pd.read_excel(path, usecols=[1, 2, 3]) df.columns = ['SMILES', 'Concentration', 'Efficiency'] df.dropna(inplace=True) df['SMILES'] = df['SMILES'].apply(augment_mol) self.graphs, self.conditions = [], [] scaler = StandardScaler() cond_scaled = scaler.fit_transform(df[['Concentration', 'Efficiency']]) self.edge_stats = {'edge_counts': []} valid_count = 0 for i, row in df.iterrows(): graph = smiles_to_graph(row['SMILES']) if graph: # 验证并修正原子类型 atomic_nums = graph.x.squeeze().tolist() atomic_nums = validate_atomic_nums(atomic_nums) graph.x = torch.tensor(atomic_nums, dtype=torch.long).view(-1, 1) self.graphs.append(graph) self.conditions.append(torch.tensor(cond_scaled[i], dtype=torch.float32)) self.edge_stats['edge_counts'].append(graph.edge_index.shape[1] // 2) valid_count += 1 print(f"成功加载 {valid_count} 个分子,过滤掉 {len(df) - valid_count} 个无效分子") self.avg_edge_count = int(np.mean(self.edge_stats['edge_counts'])) if self.edge_stats['edge_counts'] else 20 print(f"真实图平均边数: {self.avg_edge_count}") def __len__(self): return len(self.graphs) def __getitem__(self, idx): return self.graphs[idx], self.conditions[idx] # ------------------------- 生成器 ------------------------- class GraphGenerator(nn.Module): def __init__(self, noise_dim=16, condition_dim=2, hidden_dim=64): super().__init__() self.fc = nn.Sequential( nn.Linear(noise_dim + condition_dim, hidden_dim), nn.ReLU(), nn.Linear(hidden_dim, hidden_dim), nn.ReLU(), nn.Linear(hidden_dim, 10 * 5), # 5种原子类型 nn.Softmax(dim=-1) ) self.valid_atoms = torch.tensor([1, 6, 7, 8, 16], dtype=torch.long) self.dropout = nn.Dropout(0.2) def forward(self, z, cond): x = torch.cat([z, cond], dim=1) x = self.dropout(x) atom_probs = self.fc(x).view(-1, 10, 5) temperature = 0.8 atom_probs = torch.softmax(atom_probs / temperature, dim=-1) atom_indices = torch.argmax(atom_probs, dim=-1) node_feats = self.valid_atoms[atom_indices].float().view(-1, 10, 1) / 16.0 node_feats = torch.clamp(node_feats, 0.0, 1.0) # 转换为numpy数组并验证原子类型 atomic_nums = (node_feats.squeeze() * 16).cpu().numpy().round().astype(int) atomic_nums = validate_atomic_nums(atomic_nums) node_feats = torch.tensor(atomic_nums, dtype=torch.float32).view(-1, 10, 1) / 16.0 return node_feats # ------------------------- 判别器 ------------------------- class GraphDiscriminator(nn.Module): def __init__(self, node_feat_dim=1, condition_dim=2): super().__init__() self.conv1 = GCNConv(node_feat_dim + 1, 64) self.bn1 = nn.BatchNorm1d(64) self.conv2 = GCNConv(64, 32) self.bn2 = nn.BatchNorm1d(32) self.fc = nn.Sequential( nn.Linear(32 + condition_dim, 16), nn.LeakyReLU(0.2), nn.Linear(16, 1), ) def forward(self, data, condition): x, edge_index, batch = data.x.float(), data.edge_index, data.batch bond_features = torch.zeros(x.shape[0], 1).to(x.device) if hasattr(data, 'bond_types'): bond_features = data.bond_types.float().view(-1, 1) x = torch.cat([x, bond_features], dim=1) x = self.conv1(x, edge_index) x = self.bn1(x).relu() x = self.conv2(x, edge_index) x = self.bn2(x).relu() x = global_mean_pool(x, batch) x = torch.cat([x, condition], dim=1) raw_output = self.fc(x) mol_penalty = [] for i in range(data.num_graphs): subgraph = data.get_example(i) mol = Chem.RWMol() # 验证并修正原子类型 atomic_nums = (subgraph.x.squeeze() * 16).cpu().numpy().round().astype(int) atomic_nums = validate_atomic_nums(atomic_nums) for num in atomic_nums: mol.AddAtom(Chem.Atom(num)) added_edges = set() bond_types = subgraph.bond_types.tolist() if hasattr(subgraph, 'bond_types') else [] for j in range(edge_index.shape[1]): u, v = edge_index[0, j].item(), edge_index[1, j].item() if u < len(atomic_nums) and v < len(atomic_nums) and u != v and (u, v) not in added_edges: bond_type = Chem.BondType.SINGLE if j < len(bond_types) and bond_types[j] == 2: bond_type = Chem.BondType.DOUBLE mol.AddBond(u, v, bond_type) added_edges.add((u, v)) added_edges.add((v, u)) try: Chem.SanitizeMol(mol) ring_count = rdMolDescriptors.CalcNumRings(mol) hbd = rdMolDescriptors.CalcNumHBD(mol) hba = rdMolDescriptors.CalcNumHBA(mol) valence_violations = 0 max_valence_map = {1: 1, 6: 4, 7: 3, 8: 2, 16: 6} for atom in mol.GetAtoms(): atomic_num = atom.GetAtomicNum() if atomic_num in max_valence_map and atom.GetExplicitValence() > max_valence_map[atomic_num]: valence_violations += 1 ring_bonus = ring_count * 0.5 fg_bonus = (hbd + hba) * 0.3 valence_penalty = valence_violations * 1.0 penalty = -(ring_bonus + fg_bonus + valence_penalty) / 10.0 except Exception as e: print(f"分子检查失败: {e}") penalty = -1.0 mol_penalty.append(penalty) mol_penalty = torch.tensor(mol_penalty, dtype=torch.float32, device=x.device).view(-1, 1) return torch.sigmoid(raw_output + mol_penalty) # ------------------------- 自定义批处理函数 ------------------------- def custom_collate(batch): graphs, conditions = zip(*batch) batch_graphs = Batch.from_data_list(graphs) batch_conditions = torch.stack(conditions) return batch_graphs, batch_conditions # ------------------------- 训练流程 ------------------------- def train_gan(dataset_path, epochs=1750, batch_size=32, lr=1e-4, device=None): if device is None: device = torch.device("cuda" if torch.cuda.is_available() else "cpu") print(f"使用设备: {device}") dataset = MolecularGraphDataset(dataset_path) if len(dataset) == 0: print("错误:数据集为空,请检查SMILES格式或RDKit版本") return None, None dataloader = DataLoader(dataset, batch_size=batch_size, shuffle=True, collate_fn=custom_collate) generator = GraphGenerator().to(device) discriminator = GraphDiscriminator().to(device) g_opt = optim.Adam(generator.parameters(), lr=lr, betas=(0.5, 0.999)) d_opt = optim.Adam(discriminator.parameters(), lr=lr, betas=(0.5, 0.999)) loss_fn = nn.BCELoss() d_loss_history, g_loss_history = [], [] os.makedirs("results", exist_ok=True) os.chdir("results") for epoch in range(1, epochs + 1): generator.train() discriminator.train() total_d_loss, total_g_loss = 0.0, 0.0 for real_graphs, conds in dataloader: real_batch = real_graphs.to(device) conds = conds.to(device) batch_size = real_batch.num_graphs real_labels = torch.ones(batch_size, 1).to(device) fake_labels = torch.zeros(batch_size, 1).to(device) # 判别器训练 d_real = discriminator(real_batch, conds) loss_real = loss_fn(d_real, real_labels) noise = torch.randn(batch_size, 16).to(device) fake_nodes = generator(noise, conds).detach() fake_mols = [] for i in range(fake_nodes.shape[0]): node_feats = fake_nodes[i] atomic_nums = (node_feats.squeeze() * 16).cpu().numpy().round().astype(int) atomic_nums = validate_atomic_nums(atomic_nums) edge_index, bond_types = generate_realistic_edges( node_feats, dataset.avg_edge_count, atomic_nums ) mol = build_valid_mol(atomic_nums, edge_index, bond_types) if mol and mol.GetNumAtoms() > 0 and mol.GetNumBonds() > 0: fake_mols.append(mol_to_graph(mol)) else: print( f"过滤非法分子:原子数={mol.GetNumAtoms() if mol else 0}, 键数={mol.GetNumBonds() if mol else 0}") if fake_mols: fake_batch = Batch.from_data_list(fake_mols).to(device) d_fake = discriminator(fake_batch, conds[:len(fake_mols)]) loss_fake = loss_fn(d_fake, fake_labels[:len(fake_mols)]) d_loss = loss_real + loss_fake d_opt.zero_grad() d_loss.backward() d_opt.step() total_d_loss += d_loss.item() # 生成器训练 noise = torch.randn(batch_size, 16).to(device) fake_nodes = generator(noise, conds) fake_graphs = [] for i in range(fake_nodes.shape[0]): node_feats = fake_nodes[i] atomic_nums = (node_feats.squeeze() * 16).cpu().numpy().round().astype(int) atomic_nums = validate_atomic_nums(atomic_nums) edge_index, bond_types = generate_realistic_edges( node_feats, dataset.avg_edge_count, atomic_nums ) fake_graphs.append(Data( x=node_feats, edge_index=edge_index, bond_types=bond_types )) fake_batch = Batch.from_data_list(fake_graphs).to(device) g_loss = loss_fn(discriminator(fake_batch, conds), real_labels) g_opt.zero_grad() g_loss.backward() g_opt.step() total_g_loss += g_loss.item() avg_d_loss = total_d_loss / len(dataloader) avg_g_loss = total_g_loss / len(dataloader) d_loss_history.append(avg_d_loss) g_loss_history.append(avg_g_loss) if epoch % 10 == 0: generator.eval() discriminator.eval() with torch.no_grad(): num_samples = 50 noise = torch.randn(num_samples, 16).to(device) conds = torch.randn(num_samples, 2).to(device) fake_nodes = generator(noise, conds) d_real_scores, d_fake_scores = [], [] for i in range(min(num_samples, 10)): real_idx = np.random.randint(0, len(dataset)) real_graph, real_cond = dataset[real_idx] real_batch = Batch.from_data_list([real_graph]).to(device) real_cond = real_cond.unsqueeze(0).to(device) d_real = discriminator(real_batch, real_cond) d_real_scores.append(d_real.item()) node_feats = fake_nodes[i] atomic_nums = (node_feats.squeeze() * 16).cpu().numpy().round().astype(int) atomic_nums = validate_atomic_nums(atomic_nums) edge_index, bond_types = generate_realistic_edges( node_feats, dataset.avg_edge_count, atomic_nums ) mol = build_valid_mol(atomic_nums, edge_index, bond_types) if mol: fake_graph = mol_to_graph(mol) if fake_graph: fake_batch = Batch.from_data_list([fake_graph]).to(device) fake_cond = conds[i].unsqueeze(0) d_fake = discriminator(fake_batch, fake_cond) d_fake_scores.append(d_fake.item()) if d_real_scores and d_fake_scores: print(f"Epoch {epoch}: D_loss={avg_d_loss:.4f}, G_loss={avg_g_loss:.4f}") print(f"D_real评分范围: {min(d_real_scores):.4f} - {max(d_real_scores):.4f}") print(f"D_fake评分范围: {min(d_fake_scores):.4f} - {max(d_fake_scores):.4f}") else: print(f"Epoch {epoch}: D_loss={avg_d_loss:.4f}, G_loss={avg_g_loss:.4f}") print("警告:生成的分子均不合法,无法评估D_fake评分") generator.train() discriminator.train() if epoch % 100 == 0: torch.save(generator.state_dict(), f"generator_epoch_{epoch}.pt") torch.save(discriminator.state_dict(), f"discriminator_epoch_{epoch}.pt") generator.eval() with torch.no_grad(): num_samples = 25 noise = torch.randn(num_samples, 16).to(device) conds = torch.randn(num_samples, 2).to(device) fake_nodes = generator(noise, conds) generated_mols = [] for i in range(num_samples): node_feats = fake_nodes[i] atomic_nums = (node_feats.squeeze() * 16).cpu().numpy().round().astype(int) atomic_nums = validate_atomic_nums(atomic_nums) edge_index, bond_types = generate_realistic_edges( node_feats, dataset.avg_edge_count, atomic_nums ) mol = build_valid_mol(atomic_nums, edge_index, bond_types) if mol and mol.GetNumAtoms() > 0 and mol.GetNumBonds() > 0: mol_weight = rdMolDescriptors.CalcExactMolWt(mol) logp = rdMolDescriptors.CalcCrippenLogP(mol) tpsa = rdMolDescriptors.CalcTPSA(mol) generated_mols.append((mol, mol_weight, logp, tpsa)) if generated_mols: generated_mols.sort(key=lambda x: x[1]) mols = [mol for mol, _, _, _ in generated_mols] legends = [ f"Molecule {i + 1}\nMW: {mw:.2f}\nLogP: {logp:.2f}\nTPSA: {tpsa:.2f}" for i, (_, mw, logp, tpsa) in enumerate(generated_mols) ] img = Draw.MolsToGridImage( mols, molsPerRow=5, subImgSize=(200, 200), legends=legends ) img.save(f"generated_molecules_epoch_{epoch}.png") print(f"Epoch {epoch}: 保存了 {len(generated_mols)} 个合法分子的可视化结果") else: print(f"Epoch {epoch}: 未生成任何合法分子") generator.train() plt.figure(figsize=(10, 5)) plt.plot(d_loss_history, label='Discriminator Loss') plt.plot(g_loss_history, label='Generator Loss') plt.xlabel('Epoch') plt.ylabel('Loss') plt.title('GAN Loss Curve') plt.legend() plt.savefig('gan_loss_curve.png') plt.close() return generator, discriminator # ------------------------- 主函数 ------------------------- if __name__ == "__main__": print("=" * 80) print("基于SMILES验证的分子生成GAN系统") print("=" * 80) dataset_path = "D:\\python\\pythonProject1\\DATA\\data-8.xlsx" if not os.path.exists(dataset_path): print(f"错误:数据集文件 '{dataset_path}' 不存在!") print("请准备一个Excel文件,包含SMILES、Concentration、Efficiency三列数据。") exit(1) print(f"开始加载数据集: {dataset_path}") print("=" * 80) print("开始训练分子生成GAN...") generator, discriminator = train_gan( dataset_path=dataset_path, epochs=1750, batch_size=32, lr=1e-4, ) print("=" * 80) if generator and discriminator: print("训练完成!") print("生成器和判别器模型已保存到'results'目录") print("生成的分子可视化结果已保存到'results'目录") print("损失曲线已保存为'gan_loss_curve.png'") else: print("训练未能启动:数据集为空或存在其他问题") print("=" * 80)

大家在看

recommend-type

DACx760EVM:DAC8760和DAC7760的评估工具-开源

用于德州仪器(TI)的DAC8760和DAC7760电压和电流输出设备的易于使用的评估软件。 该软件允许访问DACx760系列设备的所有功能。 包含DACx760评估模块软件的源代码。 这包括所有从属VI和生成文件,以生成可执行文件,安装程序和源代码分发。 如果不依赖于DACx760评估模块而使用SM-USB-DIG,则包含SM-USB-DIG固件的源代码,可在其中发现或修改所有助记符命令的详细信息。 最后,可以下载GERBER文件和Altium PCB项目文件,以用作启动其他项目的平台。
recommend-type

国家/地区:国家/地区信息应用

国家/地区:国家/地区信息应用
recommend-type

登录管理界面-kepserverex 中文 iot gateway教程

1.7 登录管理界面 1.7.1 登录方法 设备共有三种管理方式:1)Web界面管理 2)串口命令行管理 3)远程 SSH登录管理。其中 管理方式 1)和 2)是默认开启的,3)默认是关闭的。 在 Web界面管理中,管理主机默认只能连接设备(包括内网主机、外网主机)的管理口,如 果需要连接其它网口,必须进行相应的设置。默认的管理主机 IP 地址是 10.0.0.200,Web 界面 管理使用 SSL 协议来加密管理数据通信,因此使用 IE 来管理设备,在地址栏输入 https://a.b.c.d:8889/index.php 登录网闸,其中天清安全隔离网闸的地址“a.b.c.d”,其中 内网主机管理口的初始值为“10.0.0.1”,外网主机管理口的初始值为“10.0.0.2”。登录设备的 初始用户名和口令都是“administrator”,“administrator”中所有的字母都是小写的。 注:后续章节中,没有特别说明,均以内网主机为例,进行举例说明。 在串口命令行管理中,管理客户端的配置是 9600-8-N-1,管理主机默认连接天清安全隔离 网闸的 CONSOLE。 注:用 Web 界面管理时,建议管理主机设成小字体,分辨率为 1024*768;其他字体和分辨 率可能使界面显示不全或顺序混乱。 SSH 登录管理必须首先在系统菜单“系统管理>>管理员设置>>管理方式”中勾选启用远程 SSH,然后点击确定按钮完成以 SSH方式登录天清安全隔离网闸的配置。 图 1-5 配置 SSH方式登录天清安全隔离网闸 1.7.2 管理认证 管理员通过 Web 方式管理设备使用证书认证方。设备出产时已导入了一套证书(CA 中心证 书、设备证书、设备密钥)。用户登录前先在本地浏览器中导入浏览器管理员证书后,即可通过 登录 https://10.0.0.1:8889/index.php管理。 1.7.3 登录过程 登录 1. 接通电源,开启设备,选用一台带以太网卡和光驱的 PC 机作为天清安全隔离网闸的管 理主机,操作系统应为 WindowXP/Window7,管理主机界面支持 IE(6.0及以上版本), 火狐(3.6.0),谷歌;
recommend-type

毕业设计&课设-用Matlab编写的MUSIC算法实现毫米波OFDM信号的4D ISAC成像仿真.zip

matlab算法,工具源码,适合毕业设计、课程设计作业,所有源码均经过严格测试,可以直接运行,可以放心下载使用。有任何使用问题欢迎随时与博主沟通,第一时间进行解答! matlab算法,工具源码,适合毕业设计、课程设计作业,所有源码均经过严格测试,可以直接运行,可以放心下载使用。有任何使用问题欢迎随时与博主沟通,第一时间进行解答! matlab算法,工具源码,适合毕业设计、课程设计作业,所有源码均经过严格测试,可以直接运行,可以放心下载使用。有任何使用问题欢迎随时与博主沟通,第一时间进行解答! matlab算法,工具源码,适合毕业设计、课程设计作业,所有源码均经过严格测试,可以直接运行,可以放心下载使用。有任何使用问题欢迎随时与博主沟通,第一时间进行解答! matlab算法,工具源码,适合毕业设计、课程设计作业,所有源码均经过严格测试,可以直接运行,可以放心下载使用。有任何使用问题欢迎随时与博主沟通,第一时间进行解答! matlab算法,工具源码,适合毕业设计、课程设计作业,所有源码均经过严格测试,可以直接运行,可以放心下载使用。有任何使用问题欢迎随
recommend-type

B端产品经理必备:AntDesign3.9.x-Axure-20180903 Axure元件库

B端产品经理必备:AntDesign3.9.x_Axure_20180903 Axure元件库 包含布局、按钮、图标、面包屑、导航菜单、标签页、步骤条、表单、输入框、选择器、评分、上传、穿梭框、图标库、卡片、时间轴、树形控件、图表卡片、标签、提示、抽屉、警告、对话框、进度条、气泡确认框、信息板、列表页、详情页、结果页、个人页等全部组件原型

最新推荐

recommend-type

(完整版)校园欺凌预防教育实施预案.docx

(完整版)校园欺凌预防教育实施预案.docx
recommend-type

基于 Winform、Socket 与 MySQL 的 QQ 仿真系统

资源下载链接为: https://pan.quark.cn/s/193f31be9a84 基于 Winform、Socket 与 MySQL 的 QQ 仿真系统(最新、最全版本!打开链接下载即可用!)
recommend-type

2022版微信自定义密码锁定程序保护隐私

标题《微信锁定程序2022,自定义密码锁》和描述“微信锁定程序2022,自定义密码锁,打开微信需要填写自己设定的密码,才可以查看微信信息和回复信息操作”提及了一个应用程序,该程序为微信用户提供了额外的安全层。以下是对该程序相关的知识点的详细说明: 1. 微信应用程序安全需求 微信作为一种广泛使用的即时通讯工具,其通讯内容涉及大量私人信息,因此用户对其隐私和安全性的需求日益增长。在这样的背景下,出现了第三方应用程序或工具,旨在增强微信的安全性和隐私性,例如我们讨论的“微信锁定程序2022”。 2. “自定义密码锁”功能 “自定义密码锁”是一项特定功能,允许用户通过设定个人密码来增强微信应用程序的安全性。这项功能要求用户在打开微信或尝试查看、回复微信信息时,必须先输入他们设置的密码。这样,即便手机丢失或被盗,未经授权的用户也无法轻易访问微信中的个人信息。 3. 实现自定义密码锁的技术手段 为了实现这种类型的锁定功能,开发人员可能会使用多种技术手段,包括但不限于: - 加密技术:对微信的数据进行加密,确保即使数据被截获,也无法在没有密钥的情况下读取。 - 应用程序层锁定:在软件层面添加一层权限管理,只允许通过验证的用户使用应用程序。 - 操作系统集成:与手机操作系统的安全功能进行集成,利用手机的生物识别技术或复杂的密码保护微信。 - 远程锁定与擦除:提供远程锁定或擦除微信数据的功能,以应对手机丢失或被盗的情况。 4. 微信锁定程序2022的潜在优势 - 增强隐私保护:防止他人未经授权访问微信账户中的对话和媒体文件。 - 防止数据泄露:在手机丢失或被盗的情况下,减少敏感信息泄露的风险。 - 保护未成年人:父母可以为孩子设定密码,控制孩子的微信使用。 - 为商业用途提供安全保障:在商务场合,微信锁定程序可以防止商业机密的泄露。 5. 使用微信锁定程序2022时需注意事项 - 正确的密码管理:用户需要记住设置的密码,并确保密码足够复杂,不易被破解。 - 避免频繁锁定:过于频繁地锁定和解锁可能会降低使用微信的便捷性。 - 兼容性和更新:确保微信锁定程序与当前使用的微信版本兼容,并定期更新以应对安全漏洞。 - 第三方应用风险:使用第三方应用程序可能带来安全风险,用户应从可信来源下载程序并了解其隐私政策。 6. 结语 微信锁定程序2022是一个创新的应用,它提供了附加的安全性措施来保护用户的微信账户。尽管在实施中可能会面临一定的挑战,但它为那些对隐私和安全有更高要求的用户提供了可行的解决方案。在应用此类程序时,用户应谨慎行事,确保其对应用程序的安全性和兼容性有所了解,并采取适当措施保护自己的安全密码。
recommend-type

【自动化脚本提速】:掌握序列生成的5种高效技巧

# 摘要 本文系统地阐述了自动化脚本提速的方法,重点介绍了序列生成的基础理论及其在脚本中的应用。通过探讨不同序列生成方法和高效技巧,本文旨在提高编程效率,优化自动化流程。同时,文中还涉及了高级技术,如嵌套循环、列表推导式和并行处理,这些技术不仅增加了序列生成的复杂性,同时也显著提升了效率。最后,本文通过综合案例分析,展示了一系列序列生成技巧的实际应用,并提出了优化建议和未来研究方向。 #
recommend-type

卷积神经网络中的分层!

<think>我们正在处理一个关于卷积神经网络(CNN)层级结构的问题。用户希望了解CNN的层级结构及其功能。根据提供的引用内容,我们可以整理出以下信息: 1. 引用[1]和[2]指出,一个完整的卷积神经网络通常包括以下层级: - 数据输入层(Input layer) - 卷积计算层(CONV layer) - ReLU激励层(ReLU layer) - 池化层(Pooling layer) - 全连接层(FC layer) - (可能还有)Batch Normalization层 2. 引用[2]详细说明了各层的作用: - 数据输入层:对原始图像
recommend-type

MXNet预训练模型介绍:arcface_r100_v1与retinaface-R50

根据提供的文件信息,我们可以从中提取出关于MXNet深度学习框架、人脸识别技术以及具体预训练模型的知识点。下面将详细说明这些内容。 ### MXNet 深度学习框架 MXNet是一个开源的深度学习框架,由Apache软件基金会支持,它在设计上旨在支持高效、灵活地进行大规模的深度学习。MXNet支持多种编程语言,并且可以部署在不同的设备上,从个人电脑到云服务器集群。它提供高效的多GPU和分布式计算支持,并且具备自动微分机制,允许开发者以声明性的方式表达神经网络模型的定义,并高效地进行训练和推理。 MXNet的一些关键特性包括: 1. **多语言API支持**:MXNet支持Python、Scala、Julia、C++等语言,方便不同背景的开发者使用。 2. **灵活的计算图**:MXNet拥有动态计算图(imperative programming)和静态计算图(symbolic programming)两种编程模型,可以满足不同类型的深度学习任务。 3. **高效的性能**:MXNet优化了底层计算,支持GPU加速,并且在多GPU环境下也进行了性能优化。 4. **自动并行计算**:MXNet可以自动将计算任务分配到CPU和GPU,无需开发者手动介入。 5. **扩展性**:MXNet社区活跃,提供了大量的预训练模型和辅助工具,方便研究人员和开发者在现有工作基础上进行扩展和创新。 ### 人脸识别技术 人脸识别技术是一种基于人的脸部特征信息进行身份识别的生物识别技术,广泛应用于安防、监控、支付验证等领域。该技术通常分为人脸检测(Face Detection)、特征提取(Feature Extraction)和特征匹配(Feature Matching)三个步骤。 1. **人脸检测**:定位出图像中人脸的位置,通常通过深度学习模型实现,如R-CNN、YOLO或SSD等。 2. **特征提取**:从检测到的人脸区域中提取关键的特征信息,这是识别和比较不同人脸的关键步骤。 3. **特征匹配**:将提取的特征与数据库中已有的人脸特征进行比较,得出最相似的人脸特征,从而完成身份验证。 ### 预训练模型 预训练模型是在大量数据上预先训练好的深度学习模型,可以通过迁移学习的方式应用到新的任务上。预训练模型的优点在于可以缩短训练时间,并且在标注数据较少的新任务上也能获得较好的性能。 #### arcface_r100_v1 arcface_r100_v1是一个使用ArcFace损失函数训练的人脸识别模型,基于ResNet-100架构。ArcFace是一种流行的深度学习人脸识别方法,它在损失函数层面上增强类间的区分度。在ArcFace中,通过引入角度余弦的特征分离度,改善了传统的Softmax损失函数,让学习到的人脸特征更加具有鉴别力。 ArcFace的模型文件包括: - model-0000.params: 这是模型权重参数文件。 - model-symbol.json: 这是包含网络结构定义的JSON文件。 #### retinaface-R50 retinaface-R50是基于ResNet-50架构的人脸检测模型,使用RetinaFace框架训练而成。RetinaFace是为了解决传统人脸检测模型在面对小尺寸、遮挡、模糊等复杂情况时识别准确度不高的问题而设计的。它采用一种基于多尺度的金字塔网络结构,能有效处理不同尺度的人脸,并且在特征提取时采用了一种高效的特征融合策略。 Retinaface-R50的模型文件包括: - R50-0000.params: 这是模型权重参数文件。 - R50-symbol.json: 这是包含网络结构定义的JSON文件。 ### 总结 从给定的文件信息中,我们可以看出这些预训练模型是基于MXNet深度学习框架开发的,具有专门针对人脸识别任务的优化。ArcFace模型通过增强特征的区分度,而Retinaface模型通过多尺度处理和高效的特征融合,都展示了在人脸检测和识别方面的先进技术。开发者可以利用这些预训练模型,结合MXNet提供的高级API,快速构建并部署自己的人脸识别解决方案。
recommend-type

【文本处理黑科技】:Shell脚本中序列和数组的高级应用

# 摘要 本文系统地介绍了Shell脚本中序列与数组的基础知识、操作技巧以及在实际应用中的优化方法。第一章和第二章分别对序列和数组的基础知识进行了阐述,重点讲解了序列的生成、操作、文本处理和数组的基本操作与高级特性。第三章探讨了数组在数据处理和内存管理中的性能优势。第四章结合实际案例,展示了序列与数组在日志文件分析、报告生成和配置文件管理
recommend-type

数据库用来干啥的

<think>首先,用户的问题是:“我想了解数据库的用途 请问数据库的主要用途是什么”。这翻译成英文是:“I want to understand the purpose of databases. What are the main uses of databases?” 从系统级指令中,我需要: - 所有行内数学表达式使用 $...$ 格式。 - 独立公式使用 $$...$$ 格式并单独成段。 - LaTeX语法正确。 - 使用中文回答。 - 生成相关问题。 - 回答中引用的段落末尾自然地添加引用标识,例如 [^1]。 - 结构清晰,帮助用户逐步解决问题。 - 回答真实可
recommend-type

微软文字转语音软件发布,支持多国语言高精度识别

微软文字转语音V1.0.zip这个文件包含了一个软件程序,该程序能够实现文字到语音(Text-to-Speech,TTS)的转换,同时也提供了从音频文件到文字的转换功能。下面详细介绍这一技术及其应用的知识点。 首先,文字到语音转换技术,通常称为TTS技术,是计算机科学中的一个重要分支。TTS系统主要由三个关键部分构成:文本分析模块、语音合成模块和声音输出模块。文本分析模块负责理解输入文本的结构和含义,包括分词、词性标注、句法分析、语义分析等。语音合成模块则负责根据文本分析的结果,合成出自然的语音波形。声音输出模块则是将合成的语音波形转换为可听的声音。 微软文字转语音软件具有以下功能和特点: 1. 智能文字和语音互转:该软件能够将用户输入的文字信息转换成自然流畅的语音输出,同时也能将音频文件中的对话转换成文字文本。这种双向转换功能对于多种场景有着重要的应用价值,比如辅助视障人士、提供语音交互界面、制作多语种的语音内容等。 2. 高精度识别各国语言:软件支持高精度的语言识别功能,能处理多种语言的文本或音频。不同语言有不同的语法结构和发音特点,因此支持多语言识别需要对每一种语言都进行深入的研究和算法优化,以确保转换结果的准确性和自然度。 3. 一键拖拽,批量完成:该软件提供简便的操作界面,用户可以通过简单的拖拽动作将需要转换的文本或音频文件直接加入到软件中,进行批量处理。这种操作方式极大地方便了用户,提高了工作效率,尤其在处理大量数据时优势更加明显。 4. 各种音频格式任意选择:用户可以根据需要选择输出的音频格式,比如常见的MP3、WAV等,以便适用于不同的播放设备或播放环境。不同音频格式有其特定的用途,例如MP3格式因为压缩比例高而被广泛用于网络传输和便携式设备,而WAV格式则多用于专业的音频编辑和制作。 软件包中的“resources”文件夹可能包含了支持软件运行的资源文件,如语音合成引擎所需的语音库、语言模型、字典等。而“转换结果”文件夹则可能是软件保存转换后文件的默认位置,用户可以在这里找到转换完成的文字或音频文件。 此外,软件包中的“微软文字转语音V1.0.exe”是一个可执行文件,用户通过运行该文件来启动软件,并使用其提供的各项转换功能。对于IT行业专业人士而言,了解这款软件背后的TTS技术原理和操作逻辑,可以更好地选择合适的解决方案,以满足特定的业务需求。 总结来说,微软文字转语音V1.0.zip中的软件是一款综合性的文字语音转换工具,具有高精度语言识别、高效批量处理、灵活音频格式选择等特点,可以应用于多种场景,提高信息的可访问性和交互性。
recommend-type

【Shell脚本必备】:创建序列的3种方法及高效用法

# 摘要 本文全面探讨了在Shell脚本中创建和优化序列生成的各种方法及其应用场景。首先介绍了序列生成的基本概念和使用基本命令创建序列的技巧,包括for循环、seq命令和算术表达式的应用。随后,深入分析了利用高级Shell特性如数组、复合命令和子shell、以及C风格的for循环来创建复杂序列的技术。文章还探讨了序列在文件批量处理、数据处理分析和自动化脚本中的高效应用。此外,为提升