本文分類:news發(fā)布日期:2026/3/3 9:30:33
相關文章
1.4 評估指標與可解釋性:如何科學評價你的AI模型
1.4 評估指標與可解釋性:如何科學評價你的AI模型
引言
在前幾節(jié)中,我們學習了機器學習的基礎知識、深度學習的核心概念以及如何使用PyTorch構建圖像分類項目。然而,僅僅構建模型是不夠的,我們還需要科學地評估模型的性能,并理解模型是如何做出決策的。本節(jié)將詳細介紹各種…
建站知識
2026/3/3 14:19:39
Managerial communication
Managerial communicationProcedure to come up with High Level estimationWBS to come up with estimate of staff months, (e.g. 42 manmonths) devided by num of people working full time (e.g. 6) comes up to…
建站知識
2026/2/28 9:16:34
完善我的第一個工作流: 增加循環(huán)邏輯
1、復制工作流
我們復制 [COZE打造自己的第一個工作流:新聞搜索與總結] 中實現(xiàn)的news工作流,在news工作流的基礎上進行修改,實現(xiàn)循環(huán)邏輯。 2、添加鏈接讀取插件 (增加新聞詳細程度)
在 根據(jù)關鍵詞搜索新聞內容 插件的下一步中增加 鏈接讀取插件 選擇 鏈接讀取插件 然后添…
建站知識
2026/2/26 3:17:48
攻克邊緣設備AI部署:基于Jetson Nano的YOLOv5零基礎部署與性能調優(yōu)實戰(zhàn)
【從零到一】Jetson Nano上YOLOv5部署完全攻略:零基礎小白也能玩轉邊緣AI推理 文章目錄 【從零到一】Jetson Nano上YOLOv5部署完全攻略:零基礎小白也能玩轉邊緣AI推理 1. 引言:為什么選擇Jetson Nano? 1.1 邊緣AI時代的到來 1.2 YOLO系列模型的優(yōu)勢 1.3 本教程的特色 2. 硬…
建站知識
2026/2/22 22:17:43
2.1 Transformer解密:自注意力機制與位置編碼全解析
2.1 Transformer解密:自注意力機制與位置編碼全解析
引言
Transformer架構自2017年提出以來,徹底改變了自然語言處理領域,并成為當今大語言模型(LLM)的基礎架構。從BERT到GPT,從T5到PaLM,幾乎所有現(xiàn)代大模型都基于Transformer架構。在本節(jié)中,我們將深入解析Transform…
建站知識
2026/2/22 22:21:09
完善我的第一個工作流: 增加批處理
接著上篇文章 [完善我的第一個工作流: 增加循環(huán)邏輯] 繼續(xù)分析
這里我們繼續(xù)打開上篇文章創(chuàng)建的工作流 news_manuscript ,進行完善。
批處理就是并行做事
循環(huán)就是串行做事
1、增加批處理節(jié)點 這樣就添加成功了 2、配置批處理節(jié)點參數(shù)
這里的輸入?yún)?shù)我們選擇上個節(jié)點抓取…
建站知識
2026/2/22 22:21:24
2.2 預訓練模型全家桶:BERT、T5、GPT如何選擇與應用
2.2 預訓練模型全家桶:BERT、T5、GPT如何選擇與應用
引言
在上一節(jié)中,我們深入解析了Transformer的核心機制,包括自注意力和位置編碼。基于Transformer架構,研究者們開發(fā)出了眾多優(yōu)秀的預訓練模型,其中最具代表性的就是BERT、T5和GPT系列。這些模型在各種自然語言處理任…
建站知識
2026/2/22 22:21:52
RK3588嵌入式AI工業(yè)部署:YOLOv11 + OpenCV實時推理系統(tǒng)全棧實現(xiàn)
文章目錄 從0到1:RK3588部署YOLOv11并結合OpenCV實現(xiàn)實時推理全流程(保姆級教程) 一、前置知識與工具準備 工具清單 二、PT模型轉ONNX格式 步驟1:準備YOLOv11的PT模型文件 步驟2:執(zhí)行轉換命令 三、ONNX模型轉RKNN格式 步驟1:搭建轉換環(huán)境 步驟2:編寫轉換腳本 步驟3:執(zhí)行…
建站知識
2026/2/22 16:20:24

