surfshark免费

GPT只是个开始,更多自动化助理正浮上台面|专家论点【Howie Su】 – 专家论点 – TechNice科技岛-掌握科技与行销最新动态

作者:Howie Su(产业分析师)

人工智慧的下一个飞跃自主代理

自助代理的人工智慧可能在未来几年内成为主流,并有望比今天的大型语言模型更具变革性,尽管目前大多数大型语言模型改变资讯收集和传递的方式,但它们并没有独立运作,虽然有些可以自动执行特定任务,但它们仍然需要人类输入一系列提示并确认答案。相较之下,「自主代理」将能够重新设计和自动化整个工作流程。他们计划如何端到端执行任务、迭代查询大型语言模型、监控输出以及使用其他数位工具来实现指定目标。自主代理可用於设计与执行整个行销活动,或透过大规模模拟进行研发测试,实际上,自主代理是动态系统,可以感知环境并对其环境采取行动。OpenAI 最近宣布的客制化机器人是朝这个方向迈出的一步;这些虚拟助理能够使用外部 API 来寻找特定资讯或执行简单的操作,例如协助电子商务购买。公司现在应该开始为大规模采用自主代理做好准备,调整其生成式人工智慧策略规划。

图、人工智慧虚拟助理正在快速多样化。(资料来源:ABACUS.AI)

自主代理的巨大成长潜力

在企业环境中,代理自动化整套任务的潜力可以有多种用途,我们将在这里探讨其中的两个用途:它们减少工作流程中人工干预的需要的能力,以及它们促进产品、服务测试的能力,以及大规模的场景。自动化整个工作流程。为了充分发挥自主代理的工作流程自动化潜力,重要的是要了解,当它们与数位工具正确整合时,它们实际上可以使用数位工具。配置代理时,人们可以将数位工具的文件提供给代理,然後代理就会「知道」如何使用它们;然後,它将能够向这些工具发送指令并透过 API 呼叫获取结果。也就是说,自主代理可以直接「告诉」其他企业系统要做什麽。这可能从根本上改变公司的营运方式,使其能够更全面地部署自动化并显着降低劳动力成本。

公司如何做好准备?

由於与可靠性相关的风险和限制、恶意使用的可能性以及网路攻击的更大影响,自主代理的适用性仍然有限。然而,这些挑战似乎都不会破坏交易,科技公司正在解决这些问题,专家估计,自主代理将在三到五年内准备好成为主流,甚至有些人认为,在那之前我们就能看到自主权有限的可靠系统了,不过,企业本身也应该做好一些准备来迎接更智慧的时代。

一、准备进行实验

公司应该寻找自主代理技术的新发展,并选择可以测试的解决方案(即使它们仍处於开发的早期阶段),以在产品、服务或营运模式方面创造新的竞争优势来源。目前正在进行的生成式人工智慧应用研发投资应该扩大,以确定企业具有适合的自主代理端到端自动化工作流程。

二、预计法规许可的变化

为使技术能够广泛应用,获得法规同意在当前至关重要,监管可能需要一些时间才能跟上科技的发展;在此之前,公司应强制执行自我设定的防火墙,以确保在组织内部与面对客户的应用程式中被适当且安全地使用,公司也应该积极与监管机构合作,建议制定正确的方法来管理和监控未来自主代理和类似技术的使用。

surfshark app , , ,

台湾 YouTube 今年第 2 红就是山道猴!猜猜第 1 名是谁

本文部分资料为 YouTube 官方提供,经 INSIDE 编审後刊载。

YouTube 官方今天公布了台湾 2023 年度影片排行榜,这次一共有「热门影片」、「热门音乐影片」、「热门创作者」以及「快速窜升创作者」以及新增的「热门 Shorts」五大榜单。

今年「热门影片」冠军由《大嘻哈时代 The Rappers》选手艾蜜莉的表演《麻克与林送夫》拿下,亚军则是曾引发网路热潮的《山道猴子的一生》。此外木曜 4 超玩的《第四届 YARTIST 全明星运动大会》、锡兰 Ceylan 的这些《PUA频道远比你想像的要糟糕!》等台湾人熟知的原生 YouTube 频道节目也在前十名榜单之内。

「热门音乐影片」部分,许多人气日韩艺人及偶像团体都在这一年发布了脍炙人口的流行歌曲,在台湾也引起巨大讨论。其中,来自韩国艺人团体的音乐影片更是占据排行榜多达八个席次,并由女团 BLACKPINK 成员 Jisoo 的个人出道单曲《꽃(FLOWER)》拔得头筹获得排行榜冠军;由 YOASOBI 演唱的动画《我推的孩子》主题《アイドル》则是拿下第 2 名。

今年有许多外籍创作者登上热门创作者与快速窜升创作者排行榜,像是知名韩国啦啦队员「이다혜 李多慧」来台发展,频道获得台湾粉丝的支持,夺得两个创作者榜单的双料冠军,另外也有外籍创作者分享在台湾的生活日常、在地旅游体验等,受到台湾观众的关注。

责任编辑:Chris

快加入 INSIDE Google News 按下追踪,给你最新、最 IN 的科技新闻!…

surfshark免费

Amazon 将推出名为「Q」的 AI ChatBot

Amazon 表示,将推出一款名为 Q 的企业 ChatBot ,其动力来自生成式 A.I. (AI)技术。这一宣布是在拉斯维加斯举行的 Amazon AWS 云计算服务的年度会议上进行的,这也是 Amazon 对竞争对手推出的引起公众关注的 ChatBot 的回应。

一年前,三藩市初创公司 OpenAI 推出了 ChatGPT,引发了公众和企业对生成式 AI 工具的热切关注,这些工具可以撰写电子邮件、营销提案、文章和其他类似人类工作的文本。这一关注起初给了 OpenAI 的首席合作夥伴和财务支持者 Microsoft 一个优势, Microsoft 拥有 ChatGPT 背後的基础技术的权利,并利用它建立了自己的生成式 AI 工具,即 Copilot。但这也激发了诸如 Google 等竞争对手推出自己的版本。

这些 ChatBot 是一代新的 AI,它们可以进行对话,根据从大量数字书籍、在线文章和其他媒体中学到的知识,按需生成文本,甚至生成新的图像和影片。 Amazon 表示,Q …

surfshark免费 , , ,

Piwik Pro 网站流量分析新选择,免费注册帐号立即启用

  自从今年七月後,Google的网站分析工具Analytics通用版,已全面更新为GA4,早期的通用版也停止数据的更新,因此也强制使用GA4,但GA4应该让许多人感到相当的困扰,不但数据不即时外,再来就是数据中的资料加总後,数据对不起来,先前梅干也曾分享过Matomo自行架设网站流量工具,但对於有些朋友来说,会感到有些麻烦,还得自行架设。

因此今天梅干要来分享一个免费的流量分析工具Piwik Pro,而Piwik Pro除了付费版外,也有提供免费的版本,同时只需注册帐号,再把追踪码埋放後,就可开始进行统计与分析,因此身为网站站长们,Piwik Pro不妨也可参考看看罗!


Piwik Pro连结网址:https://piwik.pro/


Step1
首先在进入Piwik Pro的网站後,点选画面右边的按钮。


Step2
接着输入Email与要追踪的网网。


Step3
新建好後,到刚所输入的信箱点击启用,接着再设定密码。


Step4
当帐密都设定完毕後,就可登入Piwik Pro的後台罗。


Step5
登入後,先按右上的叉叉。


Step6
接着到Installation页签後,有多种的埋放方式,像是WordPress、Google Tag Manger…等 若都没使用的话,就选择第一个手动安装。


Step7
而它的追踪码有二段,此段是放在<body>下方。


Step8
而这段则是放在</head>上方。


Step9
当一切都埋放好後,差不多需等待一天时间,才会显示数据,目前只有英文版,但PIWIK PRO有一个比较有趣的功能,就是可追踪使用者,进到网站的浏览状况,因此数据没有试对谁错,只有统计的方式不同,用不习惯GA4的朋友,也可试试PIWIK PRO罗!

surfshark免费 ,

意法1,350V新系列IGBT电晶体提升耐受性/效能

意法半导体(ST)新系列IGBT电晶体将击穿电压提升至1,350V,最高作业温度达175°C,更高的额定值确保电晶体在所有运作条件下具有更大的设计余量、耐受性能和更长久的可靠性。

新推出之STPOWER IH2系列IGBT还提升了功率转换效能,相关参数出色,例如,低饱和导通电压Vce(sat),确保元件在导通状态下耗散功率较小。而续流二极体的压降亦不高,能够优化关断电能损耗,让在16kHz至60kHz运作频率的单开关准谐振转换器具有更高的效能。

新IGBT具备良好的耐受性和效能,适合电磁加热设备,包括厨房炉灶、变频微波炉、电锅等家电。在2kW应用中,意法半导体的新型IGBT元件还可将功耗降低11%。

此外,Vce(sat)具有正温度系数效应,元件之间紧密的参数分布有助於简化设计,可轻松并联多个IGBT二极体,满足高功率应用的需求。

该系列前期推出的两款元件25A STGWA25IH135DF2和35A STGWA35IH135DF2现已量产,其采用标准TO-247长引线功率封装。…

surfshark免费 ,

半导体测试设备需求已於2Q’23落底 来年可望走出阴霾

研究机构Yole Group指出,以ATE为主的半导体测试设备市场,景气谷底已经在2023年第二季时出现,当季全球半导体测试设备的销售金额仅有19.08亿美元,是过去三年来的最低纪录。 然而,市场对半导体测试设备的需求已经在第三季出现明显回温的迹象,买方与供应商的活动均转趋积极。因此,Yole……

surfshark app , , , , , , ,

打破 AI 模型记忆体极限!Google 研究人员找到喂给 AI 超大量数据的新方法

Google 研究人员、柏克莱大学等专家合作的一项新研究指出,利用「环形注意力」(Ring Attention)这种技术,可打破 AI 模型现在主要面临的记忆体瓶颈,把数百万的文字量放入 AI 模型的资料视窗中,使 AI 模型的输入容量扩增到百万级以上。

Google、柏克莱大学新研究:「环形注意力」可突破 AI 模型记忆体限制 

由於训练和运算 AI 模型 GPU 存在记忆体限制,导致 AI 模型无法瞬间处理大量的字数 /  token 输入。该怎麽实现 AI 对大量数据的高效处理,是全球许多 AI 研究人员都在积极投入的项目。

目前而言,ChatGPT 在 Context Window 一次能够处理的文字输入顶多只有数千字,而较大的 AI 模型单次能够处理的上限大约为数万字(大约是一本书的字数)。

不过,这项限制终於有了新进展。由 Google 研究人员、柏克莱大学、Databricks 技术长等专家本月联合发布的新论文,提出一项称为「环形注意力」的突破性技术,有望根本性的改变人类和这些强大的新科技工具互动的方式。

在 Google DeepMind …

surfshark免费

生成式AI背後的推手 「LLM大型语言模型」 – 产业供应 – TechNice科技岛-掌握科技与行销最新动态

记者/周子宁

AI浪潮席卷全球,一时间,讲坛节目、社群平台甚至人们茶余饭後的谈资都充满AI相关的话题。随着大众目光放向人工智慧的区块,更多相关的专业词语出现在大家视野中,而频繁被提起的「LLM」就是其中一员,究竟「LLM」是甚麽?又与AI有甚麽样的关联呢?

LLM大型语言模型受到AI浪潮影响,进入大众视野。示意图:取自RF123

LLM是甚麽?

LLM(Large Language Model,大型语言模型)是一种深度学习模型,可以透过记忆文本数据学习大量的知识。LLM大型语言模型内建超过一千亿个参数的自然语言处理系统(natural language processing,简称NLP),帮助LLM吸收巨量资料数据并学习字句逻辑,包含文章、影音、图片和书籍等都在学习范围,学习完成後可应用在问答、翻译和生成文本上。

而LLM大型语言模型之所以被冠以「大型」,是因为该模型在学习时可以自主更改的参数量极高,而这也代表LLM的知识库存远比一般学习模型丰富、应用范围更广,因此被称为「大型」语言模型。

更多新闻:Bard还是不够真实?捏造使用者不曾寄出的mail

LLM跟AI有甚麽关系?

如上段所言,LLM(Large Language Model,大型语言模型)是一种深度学习模型,而其工作原理就是通过获取的文本数据来分析文字逻辑,从而由大量的数据库中生成新文本。这样的功能描述是不是让人顿感熟悉?没错,最近大放异彩的ChatGPT功能也相近於此,而ChatGPT就是其中一种LLM的应用。

说到这里或许有些人感到混淆:ChatGPT是生成式AI?但ChatGPT又是其中一种LLM?那LLM跟AI是甚麽关系?其实AI并不是特定「某一种机器或程式」,AI是一种泛称。简单来说,AI(Artificial intelligence)是泛指所有人工智慧,而LLM(Large Language Model,大型语言模型)就是其中一种类型的AI。

更生活化一些的说明:AI就像是「面」这种统称,而里面分支出来的义大利面、油面、鸡蛋面,就是LLM一类的功能性程式模型。

LLM 的实际应用

LLM如何运算与应用?普遍而言,LLM都是在未经过标记的大型数据库上经过预先训练,再根据个别需求微调,同时加入少量的、已经标记(赋予上下文含意)的数据集。训练的步骤为:

1.文字数据转换为数位形式

2.随机分配模型参数

3.传送文本数据的数位形式传到模型中

4.使用损失函数来测量模型的输出与句子中实际的下一个单词之间的差异

5.优化模型的参数以最大程度地减少损失

6.最後重复该过程,直到最终成果达到可接受的精确度。

在训练完成後,LLM的应用范围极广,适用但不限於各种产业与相关软体,例如:智能客服、生物语言处理、医疗谘询、智慧机器人和各类代码与文本生成等等。

LLM两面观

LLM大型语言模型可以快速生成文本跟消化大量资料,有着可应对客制化、节省时间与人力、全理性判断等等优点,但LLM也有短版。大型语言模型的建构通常需要长达数月的时间,以及极度高昂的费用。而完成後的持续研发与维护同样需要丰厚的投资,同时如何获得足够丰富与正确的学习数据也是研发LLM的一大难处。

除此之外,尽管LLM学习速度高、吸收范围广,但LLM对於世界的理解只限於使用者给予的资料,因此很容易在数计集编写有漏洞或是错误的状况下,造成LLM被使用者或是吸收的资料误导,从而生成出错误资讯、不当发言甚至是被诱导出违法言论。

总体来说,LLM大型语言模型是一种强大精密的工具,能够理解和生成各种语言,但同时不论是LLM或是其他AI,本身都没有主观意识跟善恶之分,因此在使用上仍需对它们的能力和限制先做了解。

surfshark免费 ,

HOLTEK新推出HT82V39A三通道CIS类比讯号处理器整合LED驱动器

Holtek深耕类比讯号处理器产品开发,宣布新推出HT82V39A三通道CIS类比讯号处理器。HT82V39A内建LED驱动器能赋予产品应用更多弹性,其类比前端(AFE)采用3.3V作为主要电源,5V则为LED驱动器电源需求。针对中高速CIS感测器的应用,如中高阶的文件扫瞄器、相片及多功能事务机等极为合适。

HT82V39A采用三个通道的结构,可提供一至三个通道的操作模式供使用者选择,A/D转换器采用16位元的高解析度设计,搭配40MSPS转换速率。整合3通道的LED驱动器,每通道最高可提供66mA的电流,各通道可透过3位元的暂存器进行电流设定与调节,可节省系统空间的使用效率。封装上采用40-pin QFN。

Holtek拥有丰富的CIS感测器、数位及类比电路设计开发经验,在扫瞄器应用市场上已耕耘多年,将持续开发更高速且高整合性产品,提供更佳且更具竞争力的产品方案,以满足客户多样化的产品应用。…

surfshark免费

Meta开源可用来侦测AI歧视问题的FACET资料集

Meta

Meta於本周开源了FACET(FAirness in Computer Vision EvaluaTion)资料集,以供不同的电脑视觉模型来评估它们在分类、侦测、实例分割与视觉定位等任务中,可能出现的偏差或歧视,以协助模型进行改善。

FACET是由3.2万张照片所组成,内含5万个人,每一张照片都由人类专家依照与人类相关的属性手动进行标记,由专门的人类注译员负责标记人口属性,包括性别与年龄等族群特徵,肤色及发型等生理特徵,以及诸如棒球选手或医生等分类,也包含了来自SA-1B资料集中6.9万名戴口罩民众的人口属性标记。

图片来源_Meta

此一资料集可用来协助回答某些问题,像是当某些表现的刻板印象多为男性属性时,AI模型是否能提供更好的辨别;开放辞汇检测模型能否够更好地侦测到那些被认为应该更年轻一些的背包客;标准检测模型是否难以侦测或分割肤色较深的人口;以及倘若上述牵涉到的是一名卷发人口,各种问题是否会被放大。

Meta以FACET来评测该公司所开发的DINOv2模型与SEERv2模型,以及OpenAI的OpenCLIP模型,整体而言,OpenCLIP在性别上的表现优於其它模型,而DINOv2则在年龄与肤色上有较佳的判断力。

Meta AI团队指出,FACET得以更深入地发现模型於类别等级上的潜在偏差,举例来说,以性别偏见最严重的「护士」类别来说,SEERv2与OpenCLIP的偏差比DINOv2更为明显,原因可能是SEERv2主要针对未经策画的社交媒体内容进行预训练,使得资料缺乏多样性,而OpenCLIP则采用经过CLIP模型过滤的网页爬梳资料,而放大了原本即存在的职业与性别的关联性。

FACET的开源将有助於研究人员执行类似的标竿测试,以理解自己的模型中所存在的偏差,亦可用来监控为了解决公平问题而采取的缓解措施所造成的影响。…