米拉德·哈希米
人员信息
SPARQL查询
优化列表
2020年–今天
2024 [第16条] Akanksha监狱 , 汉娜·林 , 卡洛斯·维拉维娅 , 巴里斯·卡西奇 , 克里斯·肯内利 , 米拉德·哈希米 , 帕塔萨拉西·兰加纳坦 :
Limoncello:缩放的预取器。 ASPLOS(3) 2024 : 577-590 [第15条] 亚历山大·希普拉 , 阿曼·马丹 , 曾一萌(Yimeng Zeng) , 乌里·阿隆 , 雅各布·R·加德纳 , 杨一鸣 , 米拉德·哈希米 , 格雷厄姆·诺伊比格 , 帕塔萨拉西·兰加纳坦 , 奥斯伯特·巴斯塔尼 , 阿米尔·亚兹丹巴赫(Amir Yazdanbakhsh) :
学习性能—改进代码编辑。 ICLR公司 2024 2023 [j3] 萨代赫·马哈达维 , 凯文·斯沃斯基 , 托马斯·基普夫 , 米拉德·哈希米 , 克里斯托斯·特拉波列迪斯 , 廖仁杰 :
实现神经算法推理任务的更好的分布外泛化。 事务处理。 机器。 学习。 物件。 2023 ( 2023 ) [第14条] 克里斯蒂娜·纳德·瓦斯科塞洛斯 , A.塞吉兹·兹蒂雷利 , 马克·马修斯 , 米拉德·哈希米 , 凯文·斯沃斯基 , 安德烈亚·塔利亚萨奇 :
CUF:连续上采样过滤器。 CVPR公司 2023 : 9999-10008 [i16] 阿曼·马丹 , 亚历山大·希普拉 , 乌里·阿隆 , 米拉德·哈希米 , 帕塔萨拉西·兰加纳坦 , 杨一鸣 , 格雷厄姆·诺伊比格 , 阿米尔·亚兹丹巴赫(Amir Yazdanbakhsh) :
学习性能—改进代码编辑。 CoRR公司 abs/2302.07867 ( 2023 ) 2022 [第13条] 严宇军(Yujun Yan) , 米拉德·哈希米 , 凯文·斯沃斯基 , 杨耀庆 , 达奈·库特拉 :
同一硬币的两面:图卷积神经网络中的异质性和超光滑性。 ICDM公司 2022 : 1287-1292 [第12条] 阿维拉尔·库马尔 , 阿米尔·亚兹丹巴赫(Amir Yazdanbakhsh) , 米拉德·哈希米 , 凯文·斯沃斯基 , 谢尔盖·莱文 :
用于构建硬件加速器的数据驱动离线优化。 ICLR公司 2022 【i15】 陈炳红 , 丹尼尔·塔洛 , 凯文·斯沃斯基 , 马丁·马斯 , 巴勃罗·阿里尔·海伯 , 阿什什·奈克 , 米拉德·哈希米 , 帕塔萨拉西·兰加纳坦 :
学习提高代码效率。 CoRR公司 abs/2208.05297 ( 2022 ) [第14条] 克里斯蒂娜·内德·瓦康塞洛斯 , 塞吉兹·兹蒂雷利 , 马克·马修斯 , 米拉德·哈希米 , 凯文·斯沃斯基 , 安德烈亚·塔利亚萨奇 :
CUF:连续上采样过滤器。 CoRR公司 abs/2210.06965 ( 2022 ) [i13] 萨代赫·马哈达维 , 凯文·斯沃斯基 , 托马斯·基普夫 , 米拉德·哈希米 , 克里斯托斯·特拉波列迪斯 , 廖仁杰 :
实现神经算法推理任务的更好的分布外泛化。 CoRR公司 abs/2211.00692 ( 2022 ) 2021 [第11条] 詹氏 , 阿坎沙·贾因 , 凯文·斯沃斯基 , 米拉德·哈希米 , 帕塔萨拉西·兰加纳坦 , 卡尔文·林 :
数据预取的层次神经模型。 ASPLOS公司 2021 : 861-873 [第10条] 威尔·萨斯曼·格雷斯沃尔 , 雅各布·金·凯利 , 米拉德·哈希米 , 穆罕默德·诺鲁齐 , 凯文·斯沃斯基 , 大卫·杜维诺 :
我没有MCMC:用于快速稳定训练基于能量的模型的摊销采样。 ICLR公司 2021 【c9】 威尔·格雷斯沃尔 , 凯文·斯沃斯基 , 米拉德·哈希米 , 大卫·杜维诺 , 克里斯·麦迪森 :
哦,我采用了梯度:离散分布的可缩放采样。 ICML公司 2021 : 3831-3841 [i12] 阿米尔·亚兹丹巴克什 , 克里斯托夫·安格穆勒 , Berkin Akin公司 , Yanqi Zhou公司 , 阿尔宾·琼斯 , 米拉德·哈希米 , 凯文·斯沃斯基 , 萨特拉吉特·查特吉 , 拉维·纳拉亚纳斯瓦米 , 詹姆斯·劳登 :
阿波罗:可转移建筑探索。 CoRR公司 abs/2102.01723 ( 2021 ) [i11] 威尔·格雷斯沃尔 , 凯文·斯沃斯基 , 米拉德·哈希米 , 大卫·杜维诺 , 克里斯·麦迪森 :
哦,我采用了梯度:离散分布的可缩放采样。 CoRR公司 abs/2102.04509 ( 2021 ) [i10] 严宇军(Yujun Yan) , 米拉德·哈希米 , 凯文·斯沃斯基 , 杨耀庆 , 达奈·库特拉 :
同一硬币的两面:图卷积神经网络中的异质性和超光滑性。 CoRR公司 abs/2102.06462 ( 2021 ) [第九章] 阿维拉尔·库马尔 , 阿米尔·亚兹丹巴赫(Amir Yazdanbakhsh) , 米拉德·哈希米 , 凯文·斯沃斯基 , 谢尔盖·莱文 :
用于构建硬件加速器的数据驱动离线优化。 CoRR公司 abs/2110.11346 ( 2021 ) [i8] 利昂·西特 , 刘哲伦(Evan Zheran Liu) , 玛丽·佩拉特 , 詹姆斯·韦克斯勒 , 米拉德·哈希米 , Been Kim(金) , 马丁·马斯 :
分析缓存模型。 CoRR公司 abs/2112.06989 ( 2021 ) 2020 [注2] 海纳·利茨 , 米拉德·哈希米 :
系统的机器学习。 IEEE微型 40 ( 5 ) : 6-7 ( 2020 ) 【c8】 詹氏 , 凯文·斯沃斯基 , 丹尼尔·塔洛 , 帕塔萨拉西·兰加纳坦 , 米拉德·哈希米 :
通过神经代码融合学习执行。 ICLR公司 2020 【c7】 刘哲伦(Evan Zheran Liu) , 米拉德·哈希米 , 凯文·斯沃斯基 , 帕塔萨拉西·兰加纳坦 , 安俊华 :
缓存替换的模拟学习方法。 ICML公司 2020 : 6237-6247 【c6】 严玉军 , 凯文·斯沃斯基 , 达奈·库特拉 , 帕塔萨拉西·兰加纳坦 , 米拉德·哈希米 :
神经执行引擎:学习执行子程序。 NeurIPS公司 2020 [i7] 严宇军(Yujun Yan) , 凯文·斯沃斯基 , 达奈·库特拉 , 帕塔萨拉西·兰加纳坦 , 米拉德·哈希米 :
神经执行引擎:学习执行子程序。 CoRR公司 abs/2006.08084 ( 2020 ) [i6] 刘哲伦(Evan Zheran Liu) , 米拉德·哈希米 , 凯文·斯沃斯基 , 帕塔萨拉西·兰加纳坦 , 安俊华 :
缓存替换的模拟学习方法。 CoRR公司 abs/2006.16239 ( 2020 ) [i5] 詹氏 , Chirag Sakhuja公司 , 米拉德·哈希米 , 凯文·斯沃斯基 , 卡尔文·林 :
学习神经加速器的硬件/软件协同设计。 CoRR公司 abs/2010.02075 ( 2020 ) [i4] 威尔·格雷斯沃尔 , 雅各布·凯利 , 米拉德·哈希米 , 穆罕默德·诺鲁齐 , 凯文·斯沃斯基 , 大卫·杜维诺 :
我没有MCMC:用于快速稳定训练基于能量的模型的摊销采样。 CoRR公司 abs/2010.04230 ( 2020 )
2010 – 2019
2019 [i3] 詹氏 , 凯文·斯沃斯基 , 丹尼尔·塔洛 , 帕塔萨拉西·兰加纳坦 , 米拉德·哈希米 :
通过神经代码融合学习执行。 CoRR公司 abs/1906.07181 ( 2019 ) 2018 [c5] 米拉德·哈希米 , 凯文·斯沃斯基 , 杰米·史密斯 , 格兰特·艾尔斯 , 海纳·利茨 , 张吉川 , 克里斯托斯·科兹拉基斯 , 帕塔萨拉西·兰加纳坦 :
学习记忆访问模式。 ICML公司 2018 : 1924-1933 [i2] 米拉德·哈希米 , 凯文·斯沃斯基 , 杰米·A·史密斯 , 格兰特·艾尔斯 , 海纳·利茨 , 张吉川 , 克里斯托斯·科兹拉基斯 , 帕塔萨拉西·兰加纳坦 :
学习记忆访问模式。 CoRR公司 abs/1803.02329 ( 2018 ) 2016 [j1] 米拉德·哈希米 , 黛比·马尔 , 道格·卡米恩 , 耶鲁·N·帕特 :
突发应用程序的高效执行。 IEEE计算。 阿基特。 莱特。 15 ( 2 ) : 85-88 ( 2016 ) 【c4】 米拉德·哈希米 , 库巴卜 , 艾曼·易卜拉希米 , 奥努尔·穆特卢 , 耶鲁·N·帕特 :
使用增强型内存控制器加速相关缓存未命中。 国际标准协会 2016 : 444-455 【c3】 米拉德·哈希米 , Onur Mutlu公司 , 耶鲁·N·帕特 :
连续预置:用于内存密集型工作负载的透明硬件加速。 微型的 2016 : 61:1-61:12 [i1] 米拉德·哈希米 :
减少有效内存访问延迟的片上机制。 CoRR公司 abs/1609.00306 ( 2016 ) 2015 【c2】 米拉德·哈希米 , 耶鲁·N·帕特 :
使用预运行缓冲区筛选的预运行执行。 微型的 2015 : 358-369 2012 【c1】 库巴卜 , M.Aater Suleman先生 , 米拉德·哈希米 , 克里斯·威尔克森 , 耶鲁·N·帕特 :
MorphCore:用于高性能ILP和高通量TLP的高能效微架构。 微型的 2012 : 305-316