×
验证码:
换一张
忘记密码?
记住我
×
统一认证登录
登录
中文版
|
English
上海科技大学知识管理系统
ShanghaiTech University Knowledge Management System
统一认证登录
登录
注册
ALL
ORCID
题名
作者
发表日期
关键词
文献类型
DOI
出处
存缴日期
收录类别
出版者
学习讨论厅
图片搜索
粘贴图片网址
首页
研究单元&专题
作者
文献类型
学科分类
知识图谱
知识整合
学习讨论厅
在结果中检索
研究单元&专题
信息科学与技术学... [137]
物质科学与技术学院 [1]
作者
屠可伟 [137]
王新宇 [21]
蒋勇 [16]
蒋承越 [15]
杨松霖 [15]
蔡炯 [14]
更多...
文献类型
会议论文 [101]
预印本 [18]
期刊论文 [9]
专利 [7]
科技报告 [2]
发表日期
2025 [1]
2024 [21]
2023 [24]
2022 [22]
2021 [15]
2020 [27]
更多...
出处
Arxiv [18]
PROCEEDIN... [11]
ACL-IJCNLP... [7]
2017 CONFE... [4]
THE 28TH I... [4]
2016 CONFE... [3]
更多...
语种
英语 [92]
中文 [1]
资助项目
National ... [21]
National ... [10]
[17JC14041... [4]
Major Prog... [2]
Basic Rese... [1]
Chief Scie... [1]
更多...
资助机构
国家自然科学基金 [1]
收录类别
EI [85]
CPCI-S [40]
CPCI [28]
SCI [8]
SCIE [6]
ISSHP [3]
更多...
状态
已发表 [108]
正式接收 [11]
实质审查 [6]
待投递 [1]
授权 [1]
×
知识图谱
KMS
>
信息科学与技术学院
>
PI研究组
>
屠可伟组
反馈留言
屠可伟组
帮助
所有内容中
屠可伟组
浏览条目
浏览/检索结果:
共137条,第1-10条
帮助
限定条件
专题:屠可伟组
第一作者的第一单位
第一作者单位
通讯作者单位
已选(
0
)
清除
条数/页:
5
10
15
20
25
30
35
40
45
50
55
60
65
70
75
80
85
90
95
100
排序方式:
请选择
期刊影响因子升序
期刊影响因子降序
题名升序
题名降序
提交时间升序
提交时间降序
发表日期升序
发表日期降序
WOS被引频次升序
WOS被引频次降序
作者升序
作者降序
RoT: Enhancing Large Language Models with Reflection on Search Trees
会议论文
CONFERENCE ON LANGUAGE MODELING 2025
作者:
Hui WY(惠文阳)
;
Tu KW(屠可伟)
Adobe PDF(3073Kb)
|
收藏
|
浏览/下载:69/2
|
提交时间:2025/03/13
A Systematic Study of Cross-Layer KV Sharing for Efficient LLM Inference
预印本
2024
作者:
Wu, You
;
Wu, Haoyi
;
Tu, Kewei
收藏
|
浏览/下载:275/0
|
提交时间:2024/11/11
Learning Robust Named Entity Recognizers From Noisy Data With Retrieval Augmentation
预印本
2024
作者:
Ai, Chaoyi
;
Jiang, Yong
;
Huang, Shen
;
Xie, Pengjun
;
Tu, Kewei
Adobe PDF(822Kb)
|
收藏
|
浏览/下载:285/0
|
提交时间:2024/08/14
named entity recognition
robust learning from noisy data
retrieval augmentation
用于大语言模型的层压缩键值缓存方法、系统、设备及介质
专利
申请号:CN202410423760.7,申请日期: 2024-06-25,类型:发明申请,状态:实质审查
发明人:
屠可伟
;
吴昊一
Adobe PDF(731Kb)
|
收藏
|
浏览/下载:435/2
|
提交时间:2024/06/25
Sparser is Faster and Less is More: Efficient Sparse Attention for Long-Range Transformers
预印本
2024
作者:
Lou, Chao
;
Jia, Zixia
;
Zheng, Zilong
;
Tu, Kewei
Adobe PDF(2152Kb)
|
收藏
|
浏览/下载:359/4
|
提交时间:2024/07/08
句法语言模型的无监督训练方法及装置
专利
申请号:CN202410296243.8,申请日期: 2024-05-10,类型:发明申请,状态:实质审查
发明人:
胡翔
;
武威
;
屠可伟
Adobe PDF(829Kb)
|
收藏
|
浏览/下载:453/0
|
提交时间:2024/05/10
Potential and Limitations of LLMs in Capturing Structured Semantics: A Case Study on SRL
会议论文
ARXIV, Tianjin Univ Sci & Tech,Tianjin,PEOPLES R CHINA, AUG 05-08, 2024
作者:
Cheng, Ning
;
Yan, Zhaohui
;
Wang, Ziming
;
Li, Zhijie
;
Yu, Jiaming
Adobe PDF(680Kb)
|
收藏
|
浏览/下载:365/2
|
提交时间:2024/06/17
Structured semantics
Semantic role labeling
Large language models
Using Interpretation Methods for Model Enhancement
预印本
2024
作者:
Chen, Zhuo
;
Jiang, Chengyue
;
Tu, Kewei
Adobe PDF(1566Kb)
|
收藏
|
浏览/下载:356/0
|
提交时间:2024/05/15
SeqGPT: An Out-of-the-Box Large Language Model for Open Domain Sequence Understanding
会议论文
PROCEEDINGS OF THE AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE, Vancouver, BC, Canada, February 20, 2024 - February 27, 2024
作者:
Yu, Tianyu
;
Jiang, Chengyue
Adobe PDF(380Kb)
|
收藏
|
浏览/下载:466/36
|
提交时间:2024/04/26
Artificial intelligence
Computational linguistics
Autoregressive modelling
Bilinguals
Events extractions
Input format
Language model
Natural language understanding
Open-source
Output and inputs
Output formats
Performance
Augmenting Transformers with Recursively Composed Multi-grained Representations
预印本
2024
作者:
Hu, Xiang
;
Zhu, Qingyang
;
Tu, Kewei
;
Wu, Wei
Adobe PDF(1175Kb)
|
收藏
|
浏览/下载:364/2
|
提交时间:2024/05/15
首页
上一页
1
2
3
4
5
6
7
8
9
下一页
末页