摘要:主頁暫時(shí)下線社區(qū)暫時(shí)下線知識(shí)庫自媒體平臺(tái)微博知乎簡書博客園我們不是的官方組織機(jī)構(gòu)團(tuán)體,只是技術(shù)棧以及的愛好者合作侵權(quán),請(qǐng)聯(lián)系請(qǐng)抄送一份到招賢納士征集網(wǎng)站設(shè)計(jì)人員設(shè)計(jì)網(wǎng)站整體布局和未來踴躍號(hào)召敢興趣參與項(xiàng)目維護(hù)的負(fù)責(zé)人各個(gè)學(xué)習(xí)領(lǐng)域歡迎做實(shí)事的
招賢納士【主頁】 apachecn.org
【Github】@ApacheCN
暫時(shí)下線: 社區(qū)
暫時(shí)下線: cwiki 知識(shí)庫
自媒體平臺(tái)
微博:@ApacheCN
知乎:@ApacheCN
CSDN
簡書
OSChina
博客園
我們不是 Apache 的官方組織/機(jī)構(gòu)/團(tuán)體,只是 Apache 技術(shù)棧(以及 AI)的愛好者!
合作or侵權(quán),請(qǐng)聯(lián)系【fonttian】
| 請(qǐng)抄送一份到
征集網(wǎng)站設(shè)計(jì)人員(設(shè)計(jì)網(wǎng)站整體布局和未來)
踴躍號(hào)召敢興趣參與項(xiàng)目維護(hù)的負(fù)責(zé)人(各個(gè)學(xué)習(xí)領(lǐng)域)
歡迎做實(shí)事的人參與到組織建設(shè)中來(開源不是一個(gè)人的事,一起來做對(duì)開源有價(jià)值的社區(qū)吧?。?/p>
聯(lián)系方式 QQ: 529815144 (權(quán)利分配靈活:能者居之!歡迎你們的到來)
翻譯征集要求:
機(jī)器學(xué)習(xí)/數(shù)據(jù)科學(xué)相關(guān)
或者編程相關(guān)
原文必須在互聯(lián)網(wǎng)上開放
不能只提供 PDF 格式(我們實(shí)在不想把精力都花在排版上)
請(qǐng)先搜索有沒有人翻譯過
【請(qǐng)?jiān)谶@里留言】
翻譯活動(dòng) PyTorch 1.0 文檔翻譯活動(dòng)參與方式:https://github.com/apachecn/p...
整體進(jìn)度:https://github.com/apachecn/p...
項(xiàng)目倉庫:https://github.com/apachecn/p...
進(jìn)度:教程部分:認(rèn)領(lǐng) 35/37,翻譯 26/37;文檔部分:16/39,翻譯 8/39
章節(jié) | 貢獻(xiàn)者 | 進(jìn)度 |
---|---|---|
教程部分 | - | - |
Deep Learning with PyTorch: A 60 Minute Blitz | @bat67 | 100% |
What is PyTorch? | @bat67 | 100% |
Autograd: Automatic Differentiation | @bat67 | 100% |
Neural Networks | @bat67 | 100% |
Training a Classifier | @bat67 | 100% |
Optional: Data Parallelism | @bat67 | 100% |
Data Loading and Processing Tutorial | @yportne13 | 100% |
Learning PyTorch with Examples | @bat67 | 100% |
Transfer Learning Tutorial | @jiangzhonglian | 100% |
Deploying a Seq2Seq Model with the Hybrid Frontend | @cangyunye | 100% |
Saving and Loading Models | @sfyumi | |
What is torch.nn _really_? | @lhc741 | |
Finetuning Torchvision Models | @ZHHAYO | 100% |
Spatial Transformer Networks Tutorial | @PEGASUS1993 | 100% |
Neural Transfer Using PyTorch | @bdqfork | 100% |
Adversarial Example Generation | @cangyunye | 100% |
Transfering a Model from PyTorch to Caffe2 and Mobile using ONNX | @PEGASUS1993 | 100% |
Chatbot Tutorial | @a625687551 | 100% |
Generating Names with a Character-Level RNN | @hhxx2015 | 100% |
Classifying Names with a Character-Level RNN | @hhxx2015 | 100% |
Deep Learning for NLP with Pytorch | @BreezeHavana | |
Introduction to PyTorch | @guobaoyo | 100% |
Deep Learning with PyTorch | @bdqfork | 100% |
Word Embeddings: Encoding Lexical Semantics | @sight007 | |
Sequence Models and Long-Short Term Memory Networks | @ETCartman | 100% |
Advanced: Making Dynamic Decisions and the Bi-LSTM CRF | @JohnJiangLA | |
Translation with a Sequence to Sequence Network and Attention | @mengfu188 | 100% |
DCGAN Tutorial | @wangshuai9517 | |
Reinforcement Learning (DQN) Tutorial | @BreezeHavana | |
Creating Extensions Using numpy and scipy | ||
Custom C++ and CUDA Extensions | @Lotayou | |
Extending TorchScript with Custom C++ Operators | ||
Writing Distributed Applications with PyTorch | @firdameng | |
PyTorch 1.0 Distributed Trainer with Amazon AWS | @yportne13 | 100% |
ONNX Live Tutorial | @PEGASUS1993 | 100% |
Loading a PyTorch Model in C++ | @talengu | 100% |
Using the PyTorch C++ Frontend | @solerji | 100% |
文檔部分 | - | - |
Autograd mechanics | @PEGASUS1993 | 100% |
Broadcasting semantics | @PEGASUS1993 | 100% |
CUDA semantics | @jiangzhonglian | 100% |
Extending PyTorch | @PEGASUS1993 | |
Frequently Asked Questions | @PEGASUS1993 | |
Multiprocessing best practices | @cvley | |
Reproducibility | @WyattHuang1 | |
Serialization semantics | ||
Windows FAQ | @PEGASUS1993 | |
torch | ||
torch.Tensor | @hijkzzz | 100% |
Tensor Attributes | ||
Type Info | @PEGASUS1993 | 100% |
torch.sparse | ||
torch.cuda | @bdqfork | 100% |
torch.Storage | ||
torch.nn | ||
torch.nn.functional | @hijkzzz | |
torch.nn.init | @GeneZC | |
torch.optim | @qiaokuoyuan | |
Automatic differentiation package - torch.autograd | ||
Distributed communication package - torch.distributed | ||
Probability distributions - torch.distributions | ||
Torch Script | ||
Multiprocessing package - torch.multiprocessing | @hijkzzz | 100% |
torch.utils.bottleneck | ||
torch.utils.checkpoint | ||
torch.utils.cpp_extension | ||
torch.utils.data | ||
torch.utils.dlpack | ||
torch.hub | ||
torch.utils.model_zoo | ||
torch.onnx | @guobaoyo | 100% |
Distributed communication package (deprecated) - torch.distributed.deprecated | ||
torchvision Reference | ||
torchvision.datasets | ||
torchvision.models | ||
torchvision.transforms | ||
torchvision.utils |
參與方式:https://github.com/apachecn/h...
整體進(jìn)度:https://github.com/apachecn/h...
項(xiàng)目倉庫:https://github.com/apachecn/h...
進(jìn)度:認(rèn)領(lǐng) 1/31,翻譯 0/31
章節(jié) | 譯者 | 進(jìn)度 |
---|---|---|
Preface | ||
Getting Started | ||
Apache HBase Configuration | ||
Upgrading | ||
The Apache HBase Shell | ||
Data Model | ||
HBase and Schema Design | ||
RegionServer Sizing Rules of Thumb | ||
HBase and MapReduce | ||
Securing Apache HBase | ||
Architecture | ||
In-memory Compaction | ||
Backup and Restore | ||
Synchronous Replication | ||
Apache HBase APIs | ||
Apache HBase External APIs | ||
Thrift API and Filter Language | ||
HBase and Spark | @TsingJyujing | |
Apache HBase Coprocessors | ||
Apache HBase Performance Tuning | ||
Troubleshooting and Debugging Apache HBase | ||
Apache HBase Case Studies | ||
Apache HBase Operational Management | ||
Building and Developing Apache HBase | ||
Unit Testing HBase Applications | ||
Protobuf in HBase | ||
Procedure Framework (Pv2): HBASE-12439 | ||
AMv2 Description for Devs | ||
ZooKeeper | ||
Community | ||
Appendix |
(暫無)
圖書捐贈(zèng)捐贈(zèng)不只是眼前的物質(zhì)和現(xiàn)金,還有書和智慧
【點(diǎn)擊參與】
學(xué)習(xí)活動(dòng) 深度學(xué)習(xí) TensorFlow - 第1期【推薦】深度學(xué)習(xí) TensorFlow 從0~1入門
TensorFlow 文檔: https://tensorflow.google.cn/...
TensorFlow 視頻: https://developers.google.com...
參與
QQ群: 809872385
時(shí)間周期: 2018-12-10~2018-12-21 (共 14 天)
學(xué)習(xí)方式: 自主留言進(jìn)度,無監(jiān)督模式(主要是先過一遍,然后實(shí)現(xiàn)文檔中的代碼效果,有問題留言)
內(nèi)容
安裝
學(xué)習(xí)(教程)
開始使用 TensorFlow
學(xué)習(xí)和使用機(jī)器學(xué)習(xí)
概述
基本分類
文本分類
回歸
過擬合和欠擬合
保存和恢復(fù)模型
學(xué)習(xí)快的,可以幫助協(xié)助回答問題
學(xué)習(xí)快的,可以繼續(xù)往下預(yù)習(xí)后面內(nèi)容
咨詢學(xué)習(xí)路線
【機(jī)器學(xué)習(xí)】: https://github.com/apachecn/A...
【Kaggle項(xiàng)目實(shí)戰(zhàn)】: https://github.com/apachecn/k...
【LeetCode面試必備】: https://github.com/apachecn/a...
個(gè)性化服務(wù)(輔助:學(xué)習(xí))
基礎(chǔ)算法、數(shù)據(jù)平臺(tái)、面試、機(jī)器學(xué)習(xí)、DL、NLP, 其他的可以留言(目前暫付費(fèi): 50元 - 直接付費(fèi),留言QQ)
針對(duì).. 找對(duì)象,也可以咨詢(目前免費(fèi).. 哈哈,可以聊聊自己的心得分享給大家)
聯(lián)系QQ: 529815144
社區(qū)福利群: 724187166
贊助我們文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/43147.html
摘要:主頁暫時(shí)下線社區(qū)暫時(shí)下線知識(shí)庫自媒體平臺(tái)微博知乎簡書博客園我們不是的官方組織機(jī)構(gòu)團(tuán)體,只是技術(shù)棧以及的愛好者合作侵權(quán),請(qǐng)聯(lián)系請(qǐng)抄送一份到招賢納士征集網(wǎng)站設(shè)計(jì)人員設(shè)計(jì)網(wǎng)站整體布局和未來踴躍號(hào)召敢興趣參與項(xiàng)目維護(hù)的負(fù)責(zé)人各個(gè)學(xué)習(xí)領(lǐng)域歡迎做實(shí)事的 【主頁】 apachecn.org 【Github】@ApacheCN 暫時(shí)下線: 社區(qū) 暫時(shí)下線: cwiki 知識(shí)庫 自媒體平臺(tái) ...
摘要:內(nèi)容來自,人工智能數(shù)據(jù)科學(xué)比賽整理平臺(tái)。消費(fèi)者人群畫像信用智能評(píng)分月日月中國移動(dòng)福建公司提供年月份的樣本數(shù)據(jù)脫敏,包括客戶的各類通信支出欠費(fèi)情況出行情況消費(fèi)場所社交個(gè)人興趣等豐富的多維度數(shù)據(jù)。 內(nèi)容來自 DataSciComp,人工智能/數(shù)據(jù)科學(xué)比賽整理平臺(tái)。Github:iphysresearch/DataSciComp 本項(xiàng)目由 ApacheCN 強(qiáng)力支持。 微博 | 知乎 | C...
摘要:主頁暫時(shí)下線社區(qū)暫時(shí)下線知識(shí)庫自媒體平臺(tái)微博知乎簡書博客園我們不是的官方組織機(jī)構(gòu)團(tuán)體,只是技術(shù)棧以及的愛好者合作侵權(quán),請(qǐng)聯(lián)系請(qǐng)抄送一份到預(yù)處理離散化等值分箱等量分箱獨(dú)熱標(biāo)準(zhǔn)化最小最大標(biāo)準(zhǔn)化歸一化特征選擇信息增益信息增益率模型驗(yàn)證評(píng)價(jià)指 【主頁】 apachecn.org 【Github】@ApacheCN 暫時(shí)下線: 社區(qū) 暫時(shí)下線: cwiki 知識(shí)庫 自媒體平臺(tái) 微博...
閱讀 1261·2023-04-26 02:38
閱讀 944·2023-04-25 20:13
閱讀 3599·2021-11-19 11:31
閱讀 2403·2019-08-30 15:55
閱讀 2731·2019-08-30 14:11
閱讀 3171·2019-08-30 13:45
閱讀 1385·2019-08-29 18:41
閱讀 1158·2019-08-29 16:18