|
视频数据集
- Youtube-8M:用于视频理解研究的大型多样化标记视频数据集。
- 地址:https://research.googleblog.com/2016/09/announcing-youtube-8m-large-and-diverse.html
文本数据集
- 20 newsgroups:分类任务,将出现的单词映射到新闻组 ID。用于文本分类的经典数据集之一,通常可用作纯分类的基准或任何 IR /索引算法的验证。
- 地址:http://qwone.com/~jason/20Newsgroups/
- 路透社新闻数据集:(较旧)纯粹基于分类的数据集,包含来自新闻专线的文本。常用于教程。
- 地址:https://archive.ics.uci.edu/ml/datasets/Reuters-21578+Text+Categorization+Collection
- 宾州树库:用于下一个单词或字符预测。
- 地址:http://www.cis.upenn.edu/~treebank/
- UCI‘s Spambase:来自著名的 UCI 机器学习库的(旧版)经典垃圾邮件数据集。根据数据集的组织细节,可以将它作为学习私人垃圾邮件过滤的基线。
- 地址:https://archive.ics.uci.edu/ml/datasets/Spambase
- Broadcast News:大型文本数据集,通常用于下一个单词预测。
- 地址:http://www.ldc.upenn.edu/Catalog/CatalogEntry.jsp?catalogId=LDC97S44
- 文本分类数据集:来自 Zhang et al., 2015。用于文本分类的八个数据集合集。这些是用于新文本分类基线的基准。样本大小从 120K 至 3.6M 不等,范围从二进制到 14 个分类问题。数据集来自 DBPedia、亚马逊、Yelp、Yahoo!和 AG。
- 地址:https://drive.google.com/drive/u/0/folders/0Bz8a_Dbh9Qhbfll6bVpmNUtUcFdjYmF2SEpmZUZUcVNiMUw1TWN6RDV3a0JHT3kxLVhVR2M
- WikiText:来自维基百科高质量文章的大型语言建模语料库,由 Salesforce MetaMind 策划。
- 地址:http://metamind.io/research/the-wikitext-long-term-dependency-language-modeling-dataset/
- SQuAD:斯坦福问答数据集——应用广泛的问答和阅读理解数据集,其中每个问题的答案都以文本形式呈现。
- 地址:https://rajpurkar.github.io/SQuAD-explorer/
- Billion Words 数据集:一种大型通用语言建模数据集。通常用于训练分布式单词表征,如 word2vec。
- 地址:http://www.statmt.org/lm-benchmark/
- Common Crawl:网络的字节级抓取——最常用于学习单词嵌入。可从 Amazon S3 上免费获取。也可以用作网络数据集,因为它可在万维网进行抓取。
- 地址:http://commoncrawl.org/the-data/
- Google Books Ngrams:来自 Google book 的连续字符。当单词首次被广泛使用时,提供一种简单的方法来探索。
- 地址:https://aws.amazon.com/datasets/google-books-ngrams/
- Yelp 开源数据集:Yelp 数据集是用于 NLP 的 Yelp 业务、评论和用户数据的子集。
- 地址:https://www.yelp.com/dataset
————————我是深度学习文本的分割线———————— (编辑:淮安站长网)
【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!
|