×
验证码:
换一张
忘记密码?
记住我
×
统一认证登录
登录
中文版
|
English
上海科技大学知识管理系统
ShanghaiTech University Knowledge Management System
统一认证登录
登录
注册
ALL
ORCID
题名
作者
发表日期
关键词
文献类型
DOI
出处
存缴日期
收录类别
出版者
学习讨论厅
图片搜索
粘贴图片网址
首页
研究单元&专题
作者
文献类型
学科分类
知识图谱
知识整合
学习讨论厅
在结果中检索
研究单元&专题
信息科学与技术学... [127]
物质科学与技术学院 [1]
作者
屠可伟 [127]
王新宇 [21]
蒋勇 [16]
蒋承越 [15]
杨松霖 [15]
蔡炯 [14]
更多...
文献类型
会议论文 [87]
预印本 [22]
期刊论文 [9]
专利 [7]
科技报告 [2]
发表日期
2024 [11]
2023 [25]
2022 [22]
2021 [15]
2020 [27]
2019 [6]
更多...
出处
Arxiv [22]
ACL-IJCNLP... [7]
PROCEEDING... [7]
2017 CONFE... [4]
THE 28TH I... [4]
2016 CONFE... [3]
更多...
语种
英语 [83]
中文 [1]
资助项目
National ... [17]
National ... [10]
[17JC14041... [4]
Major Prog... [2]
Chief Scie... [1]
National N... [1]
更多...
资助机构
国家自然科学基金 [1]
收录类别
EI [78]
CPCI [28]
CPCI-S [27]
SCI [8]
SCIE [6]
PPRN.PPRN [5]
更多...
×
知识图谱
KMS
>
信息科学与技术学院
>
PI研究组
>
屠可伟组
反馈留言
屠可伟组
帮助
所有内容中
屠可伟组
浏览条目
浏览/检索结果:
共127条,第1-10条
帮助
限定条件
专题:屠可伟组
第一作者的第一单位
第一作者单位
通讯作者单位
已选(
0
)
清除
条数/页:
5
10
15
20
25
30
35
40
45
50
55
60
65
70
75
80
85
90
95
100
排序方式:
请选择
发表日期升序
发表日期降序
WOS被引频次升序
WOS被引频次降序
期刊影响因子升序
期刊影响因子降序
题名升序
题名降序
作者升序
作者降序
提交时间升序
提交时间降序
用于大语言模型的层压缩键值缓存方法、系统、设备及介质
专利
申请号:CN202410423760.7,申请日期: 2024-06-25,类型:发明申请,状态:实质审查
发明人:
屠可伟
;
吴昊一
Adobe PDF(731Kb)
  |  
收藏
  |  
浏览/下载:25/0
  |  
提交时间:2024/06/25
Sparser is Faster and Less is More: Efficient Sparse Attention for Long-Range Transformers
预印本
2024
作者:
Lou, Chao
;
Jia, Zixia
;
Zheng, Zilong
;
Tu, Kewei
Adobe PDF(2152Kb)
  |  
收藏
  |  
浏览/下载:8/1
  |  
提交时间:2024/07/08
Layer-Condensed KV Cache for Efficient Inference of Large Language Models
预印本
2024
作者:
Wu, Haoyi
;
Tu, Kewei
Adobe PDF(590Kb)
  |  
收藏
  |  
浏览/下载:22/1
  |  
提交时间:2024/06/17
句法语言模型的无监督训练方法及装置
专利
申请号:CN202410296243.8,申请日期: 2024-05-10,类型:发明申请,状态:实质审查
发明人:
胡翔
;
武威
;
屠可伟
Adobe PDF(829Kb)
  |  
收藏
  |  
浏览/下载:53/0
  |  
提交时间:2024/05/10
Potential and Limitations of LLMs in Capturing Structured Semantics: A Case Study on SRL
预印本
2024
作者:
Cheng, Ning
;
Yan, Zhaohui
;
Wang, Ziming
;
Li, Zhijie
;
Yu, Jiaming
Adobe PDF(680Kb)
  |  
收藏
  |  
浏览/下载:23/1
  |  
提交时间:2024/06/17
Structured semantics
Semantic role labeling
Large language models
Improving Retrieval Augmented Open-Domain Question-Answering with Vectorized Contexts
预印本
2024
作者:
Chen, Zhuo
;
Wang, Xinyu
;
Jiang, Yong
;
Xie, Pengjun
;
Huang, Fei
收藏
  |  
浏览/下载:34/0
  |  
提交时间:2024/05/15
Using Interpretation Methods for Model Enhancement
预印本
2024
作者:
Chen, Zhuo
;
Jiang, Chengyue
;
Tu, Kewei
收藏
  |  
浏览/下载:33/0
  |  
提交时间:2024/05/15
SeqGPT: An Out-of-the-Box Large Language Model for Open Domain Sequence Understanding
会议论文
PROCEEDINGS OF THE AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE, Vancouver, BC, Canada, February 20, 2024 - February 27, 2024
作者:
Yu, Tianyu
;
Jiang, Chengyue
;
Lou, Chao
;
Huang, Shen
;
Wang, Xiaobin
Adobe PDF(380Kb)
  |  
收藏
  |  
浏览/下载:55/0
  |  
提交时间:2024/04/26
Artificial intelligence
Computational linguistics
Autoregressive modelling
Bilinguals
Events extractions
Input format
Language model
Natural language understanding
Open-source
Output and inputs
Output formats
Performance
Frame Semantic Role Labeling Using Arbitrary-Order Conditional Random Fields
会议论文
PROCEEDINGS OF THE AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE, Vancouver, BC, Canada, February 20, 2024 - February 27, 2024
作者:
Ai, Chaoyi
;
Tu, Kewei
Adobe PDF(615Kb)
  |  
收藏
  |  
浏览/下载:68/4
  |  
提交时间:2024/04/26
Iterative methods
Natural language processing systems
Random processes
Semantics
Arbitrary number
Arbitrary order
Frame semantics
Language processing
Model correlation
Model interaction
Natural languages
Random fields
Semantic role labeling
Semantic roles
Generative Pretrained Structured Transformers: Unsupervised Syntactic Language Models at Scale
预印本
2024
作者:
Hu, Xiang
;
Ji, Pengyu
;
Zhu, Qingyang
;
Wu, Wei
;
Tu, Kewei
Adobe PDF(2863Kb)
  |  
收藏
  |  
浏览/下载:42/1
  |  
提交时间:2024/05/15