|
|

楼主 |
发表于 2024-8-17 23:04:29
|
显示全部楼层
本帖最后由 大师大楼 于 2024-8-17 23:21 编辑
: f7 D# U* g4 z/ V5 V! T! M9 ^2 `9 a" {* w, b& c
华中科技大学白翔教授团队获得ACL2024最佳论文奖,未来技术学院2021级本科生管海粟为第一作者,团队白翔和刘禹良为通讯作者
; y% r! R$ P6 P计算语言学和自然语言处理领域顶级国际会议的国际计算语言学年会(ACL2024)
# k& @3 a/ S, ~7 J
% u4 A$ W" c: h; wACL2024的7篇最佳论文:% `" W# Y7 z! [5 f! y
https://new.qq.com/rain/a/20240815A03ZBC00& p2 } E. f+ f, r( U
论文1:Deciphering Oracle Bone Language with Diffusion Models
+ H9 C" Q- p1 k4 H% W6 g作者:Haisu Guan, Huanxin Yang, Xinyu Wang, Shengwei Han, Yongge Liu, Lianwen Jin, Xiang Bai, Yuliang Liu
* K7 y- ~- r U* s" ?; u; c2 N机构:华中科技大学、阿德莱德大学、安阳师范学院、华南理工大学. t, x) |# Q# n. S7 `) n* k
7 T5 H+ `# q3 ~3 _# r. j$ x
论文2:Natural Language Satisfiability: Exploring the Problem Distribution and Evaluating Transformer-based Language Models
5 I$ i' S5 L8 I; ]4 s. Z(暂未提交预印本)9 ~' B- `& `0 ~4 q5 O: A) p
论文3:Causal Estimation of Memorisation Profiles' m2 Q A6 A0 i+ @- O9 H1 H! h
作者:Pietro Lesci, Clara Meister, Thomas Hofmann, Andreas Vlachos, Tiago Pimentel/ m5 p/ Q$ g5 i; E0 m. w
机构:剑桥大学、苏黎世联邦理工学院
( C, {9 n' {* A9 r3 ]& T9 }* X* H/ x& E/ J
论文4:Aya Model: An Instruction Finetuned Open-Access Multilingual Language Model
& E+ t# M( Y3 J! u作者:Ahmet Üstün, Viraat Aryabumi, Zheng-Xin Yong, Wei-Yin Ko, Daniel D'souza, Gbemileke Onilude, Neel Bhandari, Shivalika Singh, Hui-Lee Ooi, Amr Kayid, Freddie Vargus, Phil Blunsom, Shayne Longpre, Niklas Muennighoff, Marzieh Fadaee, Julia Kreutzer, Sara Hooker* h/ X6 y9 T. Q4 [* x
机构:Cohere For AI、布朗大学、Cohere、Cohere For AI Community、卡内基梅隆大学、麻省理工学院
' k* n5 \3 c) x
7 m; U+ Y, j, x) R论文5:Mission: Impossible Language Models+ {. r; G: |# L3 }
作者:Julie Kallini, Isabel Papadimitriou, Richard Futrell, Kyle Mahowald, Christopher Potts
/ o4 p4 i) @$ o- A% g: u机构:斯坦福大学、加州大学尔湾分校、得克萨斯大学奥斯汀分校# ~: q t+ _1 A5 ~$ W& i
3 w) S% \' k* Z2 y* g( m8 B论文6:Semisupervised Neural Proto-Language Reconstruction
5 L. J2 G. {: l作者:Liang Lu, Peirong Xie, David R. Mortensen
8 d# V% E* Y3 s/ F6 C, v. g机构:卡内基梅隆大学、南加州大学/ m+ a# ?& T9 O( |: Z& @8 S
4 T( n7 v. H5 x! A8 g+ f2 h+ L论文7:Why are Sensitive Functions Hard for Transformers?. }4 K, N- s2 n4 u- g1 a
作者:Michael Hahn, Mark Rofin2 M4 m( P5 G- J0 e/ V
机构:萨尔大学
0 w, b$ I/ n V% u% u; G6 a |
|