AI资讯新闻榜单内容搜索-深度学习

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 深度学习
药物-靶标亲和力预测,上科大团队开发了一种Transformer编码器和指纹图谱相结合的方法

药物-靶标亲和力预测,上科大团队开发了一种Transformer编码器和指纹图谱相结合的方法

药物-靶标亲和力预测,上科大团队开发了一种Transformer编码器和指纹图谱相结合的方法

药物与靶标之间的结合亲和力的预测对于药物发现至关重要。然而,现有方法的准确性仍需提高。另一方面,大多数深度学习方法只关注非共价(非键合)结合分子系统的预测,而忽略了在药物开发领域越来越受到关注的共价结合的情况。

来自主题: AI资讯
8558 点击    2024-01-27 13:27
2023 ACM Fellow颁给图灵三巨头!清华马维英、微软高剑峰、上交大陈海波等14位华人当选

2023 ACM Fellow颁给图灵三巨头!清华马维英、微软高剑峰、上交大陈海波等14位华人当选

2023 ACM Fellow颁给图灵三巨头!清华马维英、微软高剑峰、上交大陈海波等14位华人当选

2023 ACM Fellow正式揭榜!今年共有68人评选为ACM Fellow,图灵奖三巨头,万维网之父位列其中。另外,清华马维英、微软高剑峰等14位华人纷纷入选。

来自主题: AI资讯
5031 点击    2024-01-25 13:28
一张照片,为深度学习巨头们定制人像图片

一张照片,为深度学习巨头们定制人像图片

一张照片,为深度学习巨头们定制人像图片

主题驱动的文本到图像生成,通常需要在多张包含该主题(如人物、风格)的数据集上进行训练,这类方法中的代表工作包括 DreamBooth、Textual Inversion、LoRAs 等,但这类方案因为需要更新整个网络或较长时间的定制化训练,往往无法很有效地兼容社区已有的模型,并无法在真实场景中快速且低成本应用。

来自主题: AI技术研报
10790 点击    2024-01-20 14:53
三行代码无损加速40%,尤洋团队AI训练加速器入选ICLR Oral论文

三行代码无损加速40%,尤洋团队AI训练加速器入选ICLR Oral论文

三行代码无损加速40%,尤洋团队AI训练加速器入选ICLR Oral论文

用剪枝的方式加速AI训练,也能实现无损操作了,只要三行代码就能完成!今年的深度学习顶会ICLR上,新加坡国立大学尤洋教授团队的一项成果被收录为Oral论文。

来自主题: AI资讯
6371 点击    2024-01-18 18:07
AI计算,为什么要用GPU?

AI计算,为什么要用GPU?

AI计算,为什么要用GPU?

本文介绍了为什么在AI计算中要使用GPU,以及GPU与CPU的区别和作用。GPU具备强悍的并行计算能力,适合处理大量高强度并行计算任务,包括深度学习算法。

来自主题: AI资讯
4872 点击    2024-01-02 21:29
大模型视角下的因果推断

大模型视角下的因果推断

大模型视角下的因果推断

在数字化建设不断推进的今天,随着技术的不断发展,从统计学、机器学习、深度学习,再到因果学习以及最新的热门大模型方向,九章云极 DataCanvas 始终紧贴最前沿的、最能助力企业和落地实践的方向,不断进行着面向决策和面向智能的探索。本文将分享大模型时代下的因果推断。

来自主题: AI技术研报
5882 点击    2023-12-17 12:27
深度学习大牛权威预测2024年AI行业热点,盘点开源AI趋势!

深度学习大牛权威预测2024年AI行业热点,盘点开源AI趋势!

深度学习大牛权威预测2024年AI行业热点,盘点开源AI趋势!

AI社区大佬Sebastian总结了2023年全年AI行业的热点和问题,针对开源社区和AI研究的热点问题给出了自己读到的解读和发展建议,精彩内容千万不能错过。

来自主题: AI资讯
8488 点击    2023-12-05 17:03
Keras 3.0一统江湖!大更新整合PyTorch、JAX,全球250万开发者在用了

Keras 3.0一统江湖!大更新整合PyTorch、JAX,全球250万开发者在用了

Keras 3.0一统江湖!大更新整合PyTorch、JAX,全球250万开发者在用了

今天,备受广大开发者欢迎的深度学习框架Keras,正式更新了3.0版本,实现了对PyTorch和JAX的支持,同时性能提升,还能轻松实现大规模分布式训练。

来自主题: AI技术研报
6202 点击    2023-11-29 15:23
简化版Transformer来了,网友:年度论文

简化版Transformer来了,网友:年度论文

简化版Transformer来了,网友:年度论文

Transformer 架构可以说是近期深度学习领域许多成功案例背后的主力军。构建深度 Transformer 架构的一种简单方法是将多个相同的 Transformer 「块」(block)依次堆叠起来,但每个「块」都比较复杂,由许多不同的组件组成,需要以特定的排列组合才能实现良好的性能。

来自主题: AI技术研报
7840 点击    2023-11-28 14:44