surfshark免费 ,

非x86阵营抢进AI PC 生态系成熟度定胜负(1)

为抢食AI应用进驻PC等终端装置所带来的商机,Arm阵营的业者也有相当积极的动作,不让x86阵营专美於前。但在软体生态系方面,除了苹果之外,泛安谋阵营恐怕还有许多障碍需要克服。 基於人工智慧(AI)的应用功能,在智慧型手机等领域已经存在一段时间,例如手机拍照後的相片美化,或是拍摄时的影像强化功能,都已经大量使用AI。因此,对於非x86阵营的处理器晶片业者而言,支援AI并非新鲜事。不过,这些AI跟当下最热门的生成式AI相比,在运算效能需求、记忆体容量跟存取效率方面,有着巨大的差异。如何进一步提升硬体效能,让智慧型手机等行动终端装置也能支援生成式AI,遂成为相关处理器业者当下必须面对的课题。……

surfshark免费 ,

TrendForce:2024年面板驱动IC价格仍有压力

据TrendForce研究报告显示,2023年面板驱动晶片(DDIC)的价格多是持平或小幅下滑,2024年在大尺寸应用如电视、电竞液晶监视器、商务笔电换机等需求增长的带动,面板出货将会有一定程度的成长,连同激励DDIC的需求同步上升,但在面板价格仍有压力的情况下,预期2024年DDIC价格仍会持续缓跌。……

surfshark免费

再战高通! 联发科执行长蔡力行:是天玑9300和高通骁龙8 gen 3的比较 – 企业职场 – TechNice科技岛-掌握科技与行销最新动态

记者/周子宁

根据研调分析机构Counterpoint Research的预估,2024年生成式AI智慧手机出货量将超过1亿支、2027年则将突破5亿支,年复合成长率高达83%,其中三星终端手机市场将收获一半市占。相关领域的晶片方面,高通两年内生成式AI智慧手机晶片逾八成市占率,而联发科有望赶上高通。

联发科执行长蔡力行表示,团队研发与优化的速度让他感到光荣。图/RF123

研调分析机构Counterpoint同时表示,基於生成式AI装置上市,智慧手机等各类3C的市场皆可能出现革命性变化,初步估算今年生成式AI智慧手机出货量约4,700万支,占整体智慧手机比重约4%;2024年出货量将飞速增长,可望破亿,占智慧手机比重提升至8%。Counterpoint预测,2027年生成式AI智慧手机出货量可望突破5亿支,届时AI智慧手机将占智慧手机比重达40%;2023~2027年复合成长率高达83%。

更多新闻:另辟蹊径!Meta、联发科结盟 客制化AR眼镜晶片组

三星(Samsung)将在明年生成式AI智慧手机市场居领先地位,Counterpoint预估三星会囊括一半市场,其次是vivo、小米和Oppo等中国手机厂。而AI智慧手机晶片方面,Counterpoint预估高通(Qualcomm)两年内可囊括超过八成的市占率,目前联发科天玑9300系列晶片积极抢攻市场,以其涨势很可能赶上高通。

对此,联发科执行长蔡力行表示:「这是天玑9300和高通骁龙8 gen 3的比较,这些都是公开数据,这是Geekbench跑分,我没有要念数字,但基本上我们都是领先,但你有想过5年前 2018年,我跟你讲这根本不可能,我对我们团队感到光荣。」联发科近五年内在技术研发部分投入了约180亿美金,及早开发许多关键技术,未来五年联发科将持续多角化发展,从手机、车用,再到AI产品研发,与对手高通抢夺市占。而联发科也在1111人力银行释出研替与软体工程师等职缺,希望扩大徵才,为即将到来的AI晶片市场角逐筹备。

surfshark免费 ,

爱德万测试发表Lumifinder萤光侦测系统

爱德万测试(Advantest Corporation)发表针对腹腔镜手术之最新萤光侦测系统Lumifinder。

Lumifinder系统在腹腔镜手术进行时,以近红外线雷射照射於事先施用显影剂(靛氰绿)的待观察处,并透过不同萤光强度所转成的数字与图形等量化数据来提升即时决策的效率,萤光强度光谱波型与强度变化也能一并显示。此外,Lumifinder能连接腹腔镜摄影讯号,方便医疗人员边观察萤光状态边检查雷射照射位置。

Lumifinder是爱德万测试创立近70年来首款推出的医疗仪器(日本医疗仪器批准编号:30500BZX00031000),预定於2023年11月介绍给精选的医疗机构,并预计於2024年4月起以租赁形式提供给一般医疗院所。该仪器目前仅限日本国内使用。

Lumifinder从瞄准镜顶端发射导光与近红外线雷射。运用腹腔镜确认导光位置,透过Lumifinder即时呈现相关部位的萤光强度变化,并使用光谱感测器进行测量,产生的萤光则经数位化处理,以图形方式显示。Lumifinder亦能同时汇入腹腔镜影像,与测量後的萤光光谱和萤光强度变化图一并呈现。

该系统的特点包括:透过数字和图形即时呈现萤光强度,医疗人员得以依据清楚的数值标准做判断,排除影像固有的模糊空间。萤光强度光谱波型和强度变化也能一并观察到;全套显示功能,能以多种方式呈现资讯内容,譬如光谱、彩色长条图、峰值时间变化图和腹腔镜影像。

产品标准规格:尺寸390(宽)×250(高)×400(深)mm(不含瞄准镜或其它突出部件)、重量<30kg、

额定电源AC100V 50/60Hz、额定功率170VA、防触电保护等级为第一级、防触电保护类型为Type BF触身部件。

该产品使用环境为温度范围10℃~30℃、湿度范围30%~80%(无冷凝)、气压700hPa~1060hPa。瞄准镜插入部最大口径为10mm,插入部为有效长度288.9mm,照射方向0°,照射角则为25.4。…

surfshark免费 ,

意法1,350V新系列IGBT电晶体提升耐受性/效能

意法半导体(ST)新系列IGBT电晶体将击穿电压提升至1,350V,最高作业温度达175°C,更高的额定值确保电晶体在所有运作条件下具有更大的设计余量、耐受性能和更长久的可靠性。

新推出之STPOWER IH2系列IGBT还提升了功率转换效能,相关参数出色,例如,低饱和导通电压Vce(sat),确保元件在导通状态下耗散功率较小。而续流二极体的压降亦不高,能够优化关断电能损耗,让在16kHz至60kHz运作频率的单开关准谐振转换器具有更高的效能。

新IGBT具备良好的耐受性和效能,适合电磁加热设备,包括厨房炉灶、变频微波炉、电锅等家电。在2kW应用中,意法半导体的新型IGBT元件还可将功耗降低11%。

此外,Vce(sat)具有正温度系数效应,元件之间紧密的参数分布有助於简化设计,可轻松并联多个IGBT二极体,满足高功率应用的需求。

该系列前期推出的两款元件25A STGWA25IH135DF2和35A STGWA35IH135DF2现已量产,其采用标准TO-247长引线功率封装。…

surfshark免费 ,

半导体测试设备需求已於2Q’23落底 来年可望走出阴霾

研究机构Yole Group指出,以ATE为主的半导体测试设备市场,景气谷底已经在2023年第二季时出现,当季全球半导体测试设备的销售金额仅有19.08亿美元,是过去三年来的最低纪录。 然而,市场对半导体测试设备的需求已经在第三季出现明显回温的迹象,买方与供应商的活动均转趋积极。因此,Yole……

surfshark app , , , , , , ,

打破 AI 模型记忆体极限!Google 研究人员找到喂给 AI 超大量数据的新方法

Google 研究人员、柏克莱大学等专家合作的一项新研究指出,利用「环形注意力」(Ring Attention)这种技术,可打破 AI 模型现在主要面临的记忆体瓶颈,把数百万的文字量放入 AI 模型的资料视窗中,使 AI 模型的输入容量扩增到百万级以上。

Google、柏克莱大学新研究:「环形注意力」可突破 AI 模型记忆体限制 

由於训练和运算 AI 模型 GPU 存在记忆体限制,导致 AI 模型无法瞬间处理大量的字数 /  token 输入。该怎麽实现 AI 对大量数据的高效处理,是全球许多 AI 研究人员都在积极投入的项目。

目前而言,ChatGPT 在 Context Window 一次能够处理的文字输入顶多只有数千字,而较大的 AI 模型单次能够处理的上限大约为数万字(大约是一本书的字数)。

不过,这项限制终於有了新进展。由 Google 研究人员、柏克莱大学、Databricks 技术长等专家本月联合发布的新论文,提出一项称为「环形注意力」的突破性技术,有望根本性的改变人类和这些强大的新科技工具互动的方式。

在 Google DeepMind …

surfshark免费

成王之路!Nvidia如何变得所向披靡? – IC/半导体 – TechNice科技岛-掌握科技与行销最新动态

编译/高晟钧

短短几年内,Nvidia便从一个主要从事高阶游戏晶片制造的公司,摇身一变成为市值估计超过1兆美元的人工智慧巨头,成功加入科技巨头Apple、微软、Amazon和Alphabet,跨入科技金字塔的顶端。Nvidia究竟有何独到之处,他们又是如何在短短几年内获得如此之成就呢?

长期以来,Nvidia一直专注於GPU的开发上,这也是Nvidia主要的核心业务。(图/123RF)

GPU升级

长期以来,Nvidia一直专注於GPU的开发上,这也是Nvidia主要的核心业务。GPU晶片主要为渲染视讯、图像和动画处理等显示功能而设计,对於一些高画质要求的游戏是不可或缺的。另一方面,GPU对於许多共同运行的小型晶片核心也有着重要帮助,它能够加速CPU的运算效能。

更多新闻:Google Cloud与Nvidia合作 助功生成式人工智慧发展

而对於Google、微软等庞大资料中心的云端运行,GPU真正地展现了其价值,该市场价值也大大超越了视频游戏。根据估计,Nvidia的资料中心部门年收入已经从2016年的3.4亿美元激增至如今的150亿美元,更可怕的是,一切还只是刚刚开始。

ChatGPT的出现

OpenAI在去前年底推出ChatGPT,实现了「生成式人工智慧」的理念,即透过大量资料训练,藉此在资料生成图像与文字中查询答案。

由於Nvidia拥有最适合训练人工智慧模型和推理任务的晶片,使得该公司的高阶系统备受推崇。尽管晶片供不应求,该公司的数据中心收入依旧在短短三个月内增加了一倍之多,分析师更是预言其明年的收入将突破600亿美元。

成功的秘密:软体CUDA

软体可谓是硬体运作的心脏。尽管晶片公司一般不负责应用程式的开发,但通常会提供允许开发人员在晶片上编写运行APP的软体工具。

2006年,Nvidia推出统一的GPU程式语言──CUDA,它不只解决以前成本过高的数学密集型问题,也铸造了一条竞争对手难以跨越的护城河,使得Nvidia从众多科技公司中脱颖而出。

随着时间推移,CUDA已发展出包含AI开发人员使用的250个软体库。这也使得Nvidia成为了人工智慧开发人员的首选平台。去年,CUDA的下载量已经达到了2,500万次,是截至去年以前总下载量的2倍之多。

偏执者得以生存

Nvidia的GPU如此昂贵,其又是如何保持领先地位呢?Nvidia成功的秘诀,在於保持晶片与软体性能的并肩前行。当Intel和AMD开始将自己的GPU技术与CPU晶片整合时,Nvidia也曾面临生存危机;当时Intel的年收入是Nvidia的10倍以上。

然而,没有一家科技公司可以真正的无懈可击。Nvidia的成功或许正应证了当年来自Intel前老板的一句建言:「只有偏执者才能生存。」

资料来源:Wsj.com

※更多ChatGPT相关讯息,请参考【生成式AI创新学院】。

surfshark免费

生成式AI背後的推手 「LLM大型语言模型」 – 产业供应 – TechNice科技岛-掌握科技与行销最新动态

记者/周子宁

AI浪潮席卷全球,一时间,讲坛节目、社群平台甚至人们茶余饭後的谈资都充满AI相关的话题。随着大众目光放向人工智慧的区块,更多相关的专业词语出现在大家视野中,而频繁被提起的「LLM」就是其中一员,究竟「LLM」是甚麽?又与AI有甚麽样的关联呢?

LLM大型语言模型受到AI浪潮影响,进入大众视野。示意图:取自RF123

LLM是甚麽?

LLM(Large Language Model,大型语言模型)是一种深度学习模型,可以透过记忆文本数据学习大量的知识。LLM大型语言模型内建超过一千亿个参数的自然语言处理系统(natural language processing,简称NLP),帮助LLM吸收巨量资料数据并学习字句逻辑,包含文章、影音、图片和书籍等都在学习范围,学习完成後可应用在问答、翻译和生成文本上。

而LLM大型语言模型之所以被冠以「大型」,是因为该模型在学习时可以自主更改的参数量极高,而这也代表LLM的知识库存远比一般学习模型丰富、应用范围更广,因此被称为「大型」语言模型。

更多新闻:Bard还是不够真实?捏造使用者不曾寄出的mail

LLM跟AI有甚麽关系?

如上段所言,LLM(Large Language Model,大型语言模型)是一种深度学习模型,而其工作原理就是通过获取的文本数据来分析文字逻辑,从而由大量的数据库中生成新文本。这样的功能描述是不是让人顿感熟悉?没错,最近大放异彩的ChatGPT功能也相近於此,而ChatGPT就是其中一种LLM的应用。

说到这里或许有些人感到混淆:ChatGPT是生成式AI?但ChatGPT又是其中一种LLM?那LLM跟AI是甚麽关系?其实AI并不是特定「某一种机器或程式」,AI是一种泛称。简单来说,AI(Artificial intelligence)是泛指所有人工智慧,而LLM(Large Language Model,大型语言模型)就是其中一种类型的AI。

更生活化一些的说明:AI就像是「面」这种统称,而里面分支出来的义大利面、油面、鸡蛋面,就是LLM一类的功能性程式模型。

LLM 的实际应用

LLM如何运算与应用?普遍而言,LLM都是在未经过标记的大型数据库上经过预先训练,再根据个别需求微调,同时加入少量的、已经标记(赋予上下文含意)的数据集。训练的步骤为:

1.文字数据转换为数位形式

2.随机分配模型参数

3.传送文本数据的数位形式传到模型中

4.使用损失函数来测量模型的输出与句子中实际的下一个单词之间的差异

5.优化模型的参数以最大程度地减少损失

6.最後重复该过程,直到最终成果达到可接受的精确度。

在训练完成後,LLM的应用范围极广,适用但不限於各种产业与相关软体,例如:智能客服、生物语言处理、医疗谘询、智慧机器人和各类代码与文本生成等等。

LLM两面观

LLM大型语言模型可以快速生成文本跟消化大量资料,有着可应对客制化、节省时间与人力、全理性判断等等优点,但LLM也有短版。大型语言模型的建构通常需要长达数月的时间,以及极度高昂的费用。而完成後的持续研发与维护同样需要丰厚的投资,同时如何获得足够丰富与正确的学习数据也是研发LLM的一大难处。

除此之外,尽管LLM学习速度高、吸收范围广,但LLM对於世界的理解只限於使用者给予的资料,因此很容易在数计集编写有漏洞或是错误的状况下,造成LLM被使用者或是吸收的资料误导,从而生成出错误资讯、不当发言甚至是被诱导出违法言论。

总体来说,LLM大型语言模型是一种强大精密的工具,能够理解和生成各种语言,但同时不论是LLM或是其他AI,本身都没有主观意识跟善恶之分,因此在使用上仍需对它们的能力和限制先做了解。

surfshark免费 ,

HOLTEK新推出HT82V39A三通道CIS类比讯号处理器整合LED驱动器

Holtek深耕类比讯号处理器产品开发,宣布新推出HT82V39A三通道CIS类比讯号处理器。HT82V39A内建LED驱动器能赋予产品应用更多弹性,其类比前端(AFE)采用3.3V作为主要电源,5V则为LED驱动器电源需求。针对中高速CIS感测器的应用,如中高阶的文件扫瞄器、相片及多功能事务机等极为合适。

HT82V39A采用三个通道的结构,可提供一至三个通道的操作模式供使用者选择,A/D转换器采用16位元的高解析度设计,搭配40MSPS转换速率。整合3通道的LED驱动器,每通道最高可提供66mA的电流,各通道可透过3位元的暂存器进行电流设定与调节,可节省系统空间的使用效率。封装上采用40-pin QFN。

Holtek拥有丰富的CIS感测器、数位及类比电路设计开发经验,在扫瞄器应用市场上已耕耘多年,将持续开发更高速且高整合性产品,提供更佳且更具竞争力的产品方案,以满足客户多样化的产品应用。…