anne (@77705) • Hey
长期关注web3、AGI
Publications
- 2023年11 月 14 日,阿里巴巴智能信息事业群发布了夸克大模型,该模型优先落地在通识问答、专业搜索等信息服务领域,将应用于夸克旗下一系列 App 中,令 App 变身为“AI 助手”。
夸克大模型号称“全栈自研、千亿级参数”,在 CMMLU 大模型性能评测中位列榜首,号称整体能力已经超过 GPT-3.5,在写作、考试等部分场景中优于 GPT-4。
CMMLU榜单显示,夸克大模型排名榜单第一,从官方披露消息中得知,在国内专业考试测试中,夸克大模型高考成绩接近满分,并以 486 分通过临床执业医师资格考试,还具备对不良、虚假信息识别、回答和指引的出色能力。
- Markdown文档的优势在于它的简洁性和可读性,以及可以轻松转换为其他格式。许多平台和工具,如GitHub、Jupyter Notebook、各种博客平台,都支持Markdown格式,使得用户能够更方便地创建和分享文档。
- **四象限工作法:**
四象限工作法是由史蒂芬·柯维(Stephen Covey)提出的,他在《高效能人士的七个习惯》中介绍了这一概念。它基于任务的紧急性和重要性将工作划分为四个象限:**第一象限:紧急且重要。** 即刻处理,需要立即解决的任务。**第二象限:不紧急但重要。** 重点管理,计划和预防未来的问题。**第三象限:紧急但不重要。** 可以委托给他人的任务。**第四象限:不紧急且不重要。** 需要避免的低优先级任务,可以消除或减少。
- gujiguji
gujiguji
- **多臂老虎机(Multi-Arm Bandits)**:
**专业解释**:
多臂老虎机是一个简化的强化学习问题,其中智能体必须在多个动作之间做出选择,每个动作都有一个不确定的奖励。
**通俗解释**:
想象一个有多个手柄的老虎机。你不知道哪一个会给最大的奖励,所以你需要尝试不同的手柄来找出最佳的。
- **连续与离散的行动空间(Continuous vs. Discrete Action Spaces)**:
**专业解释**:
离散的行动空间意味着智能体有一个明确的、有限的动作集合可以选择。而连续的行动空间意味着动作可以是任意值,通常在某个范围内。
**通俗解释**:
离散的行动就像选择电视上的频道,你只能选择固定的频道。而连续的行动就像调节音量,你可以选择任何值,比如23.5或37.8。
- **探索与利用(Exploration vs. Exploitation)**:
**专业解释**:
在强化学习中,智能体面临一个持续的挑战:尝试新的、未经测试的行动来获取新知识(探索),还是利用已知的信息来获得最大的即时奖励(利用)。
**通俗解释**:
想象你在一个新城市的餐厅里。你可以尝试一个你从未吃过的菜(探索),或者选择你知道很好吃的菜(利用)。做出这个决策需要权衡新体验和确保满足。
- 1. **模型自由(Model-Free)与模型驱动(Model-Based)的强化学习**:
**专业解释**:
**模型自由**:智能体不尝试了解其环境的内部工作。它只关注其所获得的奖励并调整其行为。**模型驱动**:智能体尝试建立一个关于其环境的模型,理解环境如何根据其行为响应,然后使用这个模型来帮助它做出决策。
**通俗解释**:
**模型自由**:就像你玩一个电子游戏,但不知道游戏的规则,只知道你的分数。你根据分数变化调整你的玩法。**模型驱动**:你不仅玩游戏,还试图理解游戏的规则并利用这些规则来赢得更高的分数。2. **蒙特卡罗方法(Monte Carlo Methods)**:
**专业解释**:
这是一种基于经验平均值的学习方法。智能体评估其策略的效果是基于从其与环境的互动中收集的样本。
**通俗解释**:
想象你正在尝试掷骰子以获得最高分。蒙特卡罗方法就像你掷骰子很多次,然后平均这些分数来了解哪种方法最好。
3. **Temporal Difference Learning(时差学习)**:
**专业解释**:
时差学习是强化学习中的一种方法,结合了蒙特卡罗方法和动态规划的想法。智能体不需要等待一个序列完成就可以更新其估计。
**通俗解释**:
想象你正在看一个电视剧,并试图猜测结局。每看一集,你都会稍微调整你的预测,而不是等到整个季度结束后再做决策。
- 学习路线:
基础知识
计算机科学基础: 学习编程(如 Python,它在机器学习领域很受欢迎)和数据结构。
机器学习: 掌握机器学习的基础概念,如监督学习、无监督学习、深度学习、增强学习等。
进阶学习
神经网络: 了解前馈神经网络、卷积神经网络、递归神经网络等基础结构。
增强学习: 研究如 Q-learning, Deep Q Networks, Policy Gradients 等技术。
AGI 概念和挑战: 理解什么是 AGI,它与其他 AI 技术的区别,以及为什么创建 AGI 是一个大挑战。
应用和实践
项目实践: 选择一些小的 AI 或 AGI 相关项目进行实践,增强你的理解和实际操作能力。
产品策略: 了解如何将 AGI 技术融入到产品中,如何评估其对产品的价值,如何与团队合作开发等。
深入学习
先进的 AGI 研究: 阅读相关的论文和书籍,例如 OpenAI 和 DeepMind 的研究成果。
伦理和社会影响: 学习 AGI 对社会、经济、伦理等方面的潜在影响。
与社区互动
参加会议和工作坊: 如 NeurIPS、ICML、IJCAI 等。
网络学习: 加入相关的论坛、社交媒体群组,与领域内的专家和研究者交流。
持续学习和适应
由于 AGI 是一个快速发展的领域,你需要持续关注最新的技术和研究动态,以保持自己的知识和技能与时俱进。
- 自主性(Autonomy)是指智能体或系统能够在一定程度上独立地做出决策和执行行动,而无需外部直接干预或控制。这一概念在人工智能、机器学习和自动化领域中非常重要,因为它涉及到系统的自主决策能力和自我管理能力。
以下是有关自主性的关键概念:
**决策能力(Decision-Making)**:自主性涉及到系统或智能体能够独立地做出决策,而不需要人类干预。这些决策可以基于预定策略、规则、学习算法或环境反馈。
**行动执行(Action Execution)**:与决策相关的是能够执行相应的行动或操作。自主性要求系统具备能够实际执行决策的能力,这可能涉及到物理动作(例如机器人移动)或数字操作(例如自动化系统的控制)。
**适应性(Adaptability)**:自主性不仅仅是关于独立决策,还涉及到系统如何根据环境的变化和情境的不同来调整自己的行为。自主系统通常能够适应新的条件和情况。
**目标导向(Goal-Oriented)**:自主性通常与系统的特定目标相关。智能体或系统可能被配置为追求特定目标,而自主性使其能够自主地采取行动以实现这些目标。
**不需外部直接控制**:自主性强调系统能够独立地工作,而不需要持续的外部直接监督或干预。然而,这不排除系统能够与人类或其他系统进行互动和通信。
**强化学习中的自主性**:在强化学习中,自主性是一个重要的概念,因为智能体需要学会在环境中采取行动,以最大化累积奖励,而不是依赖外部指导。这要求智能体具备一定程度的自主性,以平衡探索与利用,并独立地学习和改进策略。
自主性的程度可以根据系统的设计和任务的需求而有所不同。一些系统可能需要高度自主的决策和行动,而其他系统可能需要更多的人类干预和监督。自主性的实现通常依赖于算法、控制系统和传感器技术的发展。
-
环境模型(Model of the Environment)是在强化学习和人工智能领域中的一个重要概念。它指的是智能体(agent)对其周围环境的内部表示或模拟,允许智能体估计未来行动的结果以及如何达到特定目标。环境模型可以采用多种形式,包括确定性模型和随机模型。
以下是一些关于环境模型的关键概念:
**确定性模型(Deterministic Model)**:在确定性模型中,环境的状态和行动之间的关系是确定的,即对于给定的状态和行动,环境的响应是唯一的。这使得智能体能够准确地预测未来的状态和奖励。
**随机模型(Stochastic Model)**:在随机模型中,环境的状态和行动之间存在一定的不确定性或随机性。这意味着相同的状态和行动可能会导致不同的结果。智能体需要考虑概率分布来估计未来的结果。
**模拟(Simulation)**:有时,智能体可能会使用环境的模拟来测试不同的策略或行动,而不必在真实环境中执行它们。这可以帮助智能体规划和优化其行动,以最大化累积奖励。
**规划(Planning)**:环境模型通常与规划算法结合使用,智能体可以在模型中模拟不同的决策路径,以找到最佳的行动序列,以实现其目标。
**强化学习中的环境模型**:在强化学习中,智能体可以使用环境模型来进行价值迭代、策略搜索和探索。模型可以帮助智能体预测不同行动的长期影响,并帮助其做出更好的决策。
**不完全信息(Partial Information)**:智能体通常只能观察到环境的部分信息,而不是完全了解环境的全部。在这种情况下,环境模型需要考虑到观察到的信息和不可见的状态之间的关系。
环境模型是强化学习中的重要组成部分,特别是在需要长期规划和探索的任务中。通过建立准确的环境模型,智能体可以更有效地学习和改进其策略,以实现更好的性能。但是,在现实世界中,有时环境模型可能是不完全的或不准确的,因此智能体需要灵活地处理不确定性。
- 智能体(Agent)是指在人工智能和计算机科学领域中的一个概念,它代表了能够感知环境并采取行动以实现特定目标或任务的实体。智能体可以是软件程序、机器人、虚拟角色或任何能够进行计算和决策的实体。
以下是关于智能体的一些关键特征和概念:
**感知(Perception)**:智能体能够感知其环境,通常通过传感器、摄像头、麦克风等设备来获取信息。这些信息可以是关于物理世界的数据,也可以是来自网络或数据库的数字信息。
**决策(Decision)**:智能体能够根据其感知到的信息做出决策或选择行动。这些决策可以是基于预定策略、规则或学习算法生成的。
**目标导向(Goal-Oriented)**:智能体通常被设计或配置为追求特定目标或任务。它的行动和决策旨在实现这些目标。
**学习(Learning)**:一些智能体具备学习能力,能够从经验中提取知识,并根据先前的行动和结果来改进其决策和行为。
**交互(Interaction)**:智能体通常与环境或其他智能体进行交互,这包括获取信息、执行行动和接收反馈。
**自主性(Autonomy)**:智能体在一定程度上可以自主地做出决策,而不需要外部直接干预。这使其能够适应不同的环境和情境。
**环境模型(Model of the Environment)**:有些智能体具备环境模型,它们可以模拟环境的响应,以便在未来的决策和规划中使用。
智能体的概念在各种领域中有广泛的应用,包括自动驾驶汽车、机器人、自然语言处理系统、游戏角色等。智能体的设计和开发是人工智能研究和开发的核心之一,目标是使它们能够更智能地执行任务和与复杂环境互动。
- **智能体(Agent)**:在AGI背景下,智能体是指系统中的学习主体,可以是一个计算机程序或机器人,它可以感知环境并采取行动,以实现特定目标。
- AGI,全称为人工通用智能(Artificial General Intelligence),也被称为强人工智能(Strong AI)或全能人工智能,指的是一种人工智能系统,它拥有与人类智能相当的智能水平,能够像人类一样理解、学习和执行各种智力任务,而不仅仅是在特定领域表现出色。
与AGI不同,目前大部分人工智能系统都是狭窄人工智能(Narrow AI)或弱人工智能(Weak AI),它们在特定任务或领域中表现出色,但缺乏跨领域的通用智能。例如,语音助手、图像识别系统和自动驾驶汽车都属于狭窄人工智能,它们在各自的领域内执行得非常出色,但不能像人一样适应各种不同任务和环境。
实现AGI是人工智能领域的最终目标,因为它具有广泛的应用潜力,可以在医疗、教育、科学研究、工业等各个领域发挥作用。然而,AGI的实现是一个极具挑战性的任务,因为它要求系统具备一般性的智能、学习能力和适应性,这远比狭窄人工智能的任务复杂得多。
AGI的研究涉及到机器学习、深度学习、强化学习、自然语言处理、计算机视觉等多个领域,目前仍然处于研究和探索的阶段,尚未实现具有与人类相当的通用智能的系统。在追求AGI的道路上,研究人员和科技公司不断努力,但要实现AGI仍然需要克服许多技术、伦理和安全挑战。
- 强化学习是一种机器学习方法,旨在让智能体(agent)通过与环境的交互来学习如何采取行动以最大化累积的奖励信号。与监督学习不同,强化学习并不需要标注好的输入和输出对,而是依赖于试错过程来学习。
强化学习涉及以下关键要素:
**智能体(Agent)**:代表学习系统,它需要从环境中获取信息并采取行动。智能体可以是机器人、虚拟角色、算法等。
**环境(Environment)**:代表智能体所处的外部环境,它对智能体的行动做出响应,并提供反馈。环境可以是物理环境,也可以是虚拟环境或模拟器。
**状态(State)**:描述环境的一个特定瞬时情况,它包含智能体需要用来做出决策的所有信息。
**行动(Action)**:智能体根据状态选择的决策或操作,影响环境的演变。
**奖励(Reward)**:每当智能体执行一个动作时,环境会返回一个奖励信号,指示该动作的好坏。智能体的目标是通过选择行动来最大化未来累积的奖励。
**策略(Policy)**:是智能体从状态到行动的映射规则,决定了在给定状态下选择哪个行动。强化学习的目标之一是找到最佳策略,即能够最大化累积奖励的策略。
强化学习的核心挑战在于平衡探索(exploration)和利用(exploitation)的关系。探索是指尝试新的行动以便发现更好的策略,而利用是指利用当前已知的最佳策略来获取更高的奖励。智能体需要在不断尝试新行动与基于已知经验进行行动之间找到平衡,以获得最优的学习效果。
强化学习在许多领域都有应用,如自动驾驶、游戏玩法优化、金融交易策略等。著名的强化学习算法包括Q-learning、深度强化学习(Deep Reinforcement Learning)、策略梯度(Policy Gradient)等。
- 🐔🐔🐔
- 当提到"NLP"和"NPU"时,通常指的是以下两种不同的概念:
**NLP(Natural Language Processing)**:
自然语言处理是一种计算机科学领域,专注于使计算机能够理解、处理和生成人类语言。NLP技术使计算机能够解析语言的语法、语义和结构,从而实现自动化的文本翻译、语音识别、情感分析、文本生成等任务。NLP技术广泛应用于机器翻译、聊天机器人、搜索引擎、语音助手(如Siri和Alexa)以及许多其他涉及自然语言交互的领域。
**NPU(Neural Processing Unit)**:
神经处理单元是一种专门设计用于执行人工神经网络(包括深度学习模型)计算的硬件组件。这些处理单元针对神经网络的计算需求进行了优化,能够高效地执行矩阵乘法、卷积等运算,这些运算在深度学习中非常常见。NPU通常用于加速训练和推断过程,可以显著提高神经网络模型的性能和效率。在一些较新的移动设备、嵌入式系统和数据中心服务器中,NPU被广泛用于处理AI任务。
总之,NLP关注于处理自然语言,使计算机能够理解和生成人类语言,而NPU则专注于优化神经网络的计算过程,以加速深度学习模型的训练和推断。这两者在不同领域的应用有所重叠,因为深度学习在自然语言处理中得到了广泛的应用。
- **GPT (Generative Pre-trained Transformer)**:
**流程**:GPT是基于Transformer架构的自然语言处理模型。它首先通过在大规模文本语料上进行无监督预训练,学习语言的语法、语义和上下文信息。然后,在特定任务上进行微调,以将其应用于问题解决,如生成文本、回答问题等。
**优势**:
大规模无监督预训练使得GPT具备强大的语言理解和生成能力。适用于多种自然语言处理任务,如文本生成、翻译、摘要等。随着模型规模的增大,GPT在多项任务中展现出色性能,且无需特定任务的架构修改。
**劣势**:
生成的文本有时可能不准确或不合理。长文本处理存在信息丢失的风险。需要大量计算资源和能源,不适合资源受限环境。
**GLM (Graphical Lasso Model)**:
**流程**:GLM是一种用于建模多元数据的统计方法,尤其适用于图数据。它通过估计数据的协方差矩阵,进而推断节点之间的连接关系。通过加入L1正则化,GLM可以实现特征选择。
**优势**:
适用于分析复杂数据之间的关系,如社交网络、脑连接图等。可以揭示节点之间的连接和影响,有助于发现隐藏模式。在某些情况下,可以进行高维数据的降维和特征选择。
**劣势**:
对数据分布的假设可能不满足实际数据,导致模型性能下降。处理大规模数据和高维数据可能面临计算和内存挑战。
**LLAMA (Low-LAtency MAchine Learning for AI Assistants)**:
**流程**:LLAMA旨在提高AI助手的响应速度,通过将大型预训练模型转化为低延迟版本,以在边缘设备上实现高性能的部署。
**优势**:
可以在资源受限的设备上部署复杂的预训练模型,如智能手机和物联网设备。提供更快速、更高质量的AI助手体验,减少响应时间。在速度和质量之间找到权衡点,适应不同的应用场景。
**劣势**:
可能会在一定程度上牺牲生成质量,以降低延迟。受限于设备资源,可能无法处理过于复杂的任务。
- 区块链社交类项目将传统社交平台与去中心化技术相结合,打造出更安全、隐私保护更强、用户拥有更大控制权的社交体验。这种新型社交平台可以确保用户数据的透明性和不可篡改性,赋予用户通证激励,鼓励内容创作和互动。通过智能合约,社交交互可以更加透明,用户间的交往能够更加直接和公平。然而,这种社交区块链的成功还需面对技术挑战、用户采用的障碍以及可持续商业模式的探索。总体而言,区块链社交在重新定义互联网社交方式的同时,也为用户带来了更多的权力和机会。
- 当前阶段,区块链技术处于迅速发展和不断演进的阶段,同时也面临一些挑战和限制。
**1. **可扩展性问题:** 随着区块链应用的增多,可扩展性成为一个突出问题。传统的区块链网络,如比特币和以太坊,可能会因为交易速度慢和高费用而受到限制。
**2. **能源消耗:** 部分区块链网络使用的共识机制,如工作量证明(PoW),需要大量的计算能力和能源。这在环境和可持续性方面引发了一些担忧。
**3. **法规和合规挑战:** 区块链技术涉及的数字资产、智能合约等领域,可能在法规和合规方面面临挑战。不同国家和地区对区块链的监管态度不同,可能会影响其应用。
**4. **标准化问题:** 区块链生态系统中存在多种不同的标准和协议,这可能导致互操作性和统一性的问题,限制了不同区块链之间的互联互通。
**5. **隐私问题:** 尽管区块链的交易是公开和透明的,但某些应用可能需要保护交易和数据的隐私。解决隐私问题需要在安全性和可追溯性之间取得平衡。
然而,尽管面临这些挑战,区块链技术仍在不断进化,并且已经在许多领域取得了显著进展。许多项目和企业正在寻求解决上述问题,提出创新的解决方案,以推动区块链技术的进一步发展和应用。
总的来说,区块链技术在现阶段处于充满希望的阶段,它正在从实验阶段逐步向实际应用过渡。随着技术和生态系统的发展,我们有理由相信区块链将在未来继续演化,并为许多行业带来积极的变革。
- hahaha
- 知识表示是人工智能领域的核心研究问题之一,它的目标是让机器存储相应的知识,并且能够按照某种规则推理演绎得到新的知识。有许多需要解决的问题需要大量的对世界的知识,这些知识包括事先存储的先验知识和通过智能推理得到的知识。事先存储的先验知识指:人类通过某种方式告诉给机器的知识。通过智能推理得到的知识指:结合先验知识和某种特定的推理规则(逻辑推理)得到的知识。首先,先验知识可以指描述目标,特征,种类及物件之间的关系的知识, 也可以描述事件,时间,状态,原因和结果, 以及任何知识你想要机器存储的。比如:今天没有太阳,没有太阳就是阴天。那么以命题逻辑语言,这些知识可以被表示为:今天-->没有太阳, 没有太阳-->阴天。这些知识是先验知识,那么通过推理可以得到新知识:今天-->阴天。由此例子可以看出,先验知识的正确性非常重要,这个例子中没有太阳就是阴天,这个命题是不严谨的、比较笼统的,因为没有太阳可能是下雨,也可能下雪。另外如果人工智慧能看出太阳,除了该如何判断的这件问题,在这个前提之下,应该也能判断出阴天与晴天的差异。逻辑命题表示在知识表示中非常重要,逻辑推理规则是目前主要推理规则。可以在机器中用逻辑符号定义每一个逻辑命题,然后再让机器存储相应的逻辑推理规则,那么自然而然机器便可进行推理。目前知识表达有许多困境尚无法解决,比如:建立一个完备的知识库几乎不可能,所以知识库的资源受到限制;先验知识的正确性需要进行检验,而且先验知识有时候不一定是只有对或者错两种选择。
- I逐渐普及后,将会在企业管理中扮演很重要的角色,而人类的管理者应如何适度的调整自己的工作职能,有以下几点建议:
放弃行政工作退守分析预测的领域而强化自己的综合判断力。把AI当作同事,形成协同合作的团队。多琢磨在创造力以及各种流程架构设计师角色。强化自己人际网路、沟通协调、谈判上的能力。培养自身领导能力,能有效地带领一个士气高、团结及凝结力高的工作伙伴。
- night
- cute
- Unidentified Vegan Macarons 👽🇫🇷🍃✨
・frame-by-frame animation
・open edition (7 days)
・2 WMATIC
・10% mirror referral reward
#nftart #animation #OPENLENS #lens
- 集成方法
智能agent范式:智能agent是一个会感知环境并作出行动以达致目标的系统。最简单的智能agent是那些可以解决特定问题的程序。更复杂的agent包括人类和人类组织(如公司)。这些范式可以让研究者研究单独的问题和找出有用且可验证的方案,而不需考虑单一的方法。一个解决特定问题的agent可以使用任何可行的方法-一些agent用符号方法和逻辑方法,一些则是子符号神经网络或其他新的方法。范式同时也给研究者提供一个与其他领域沟通的共同语言--如决策论和经济学(也使用abstract agents的概念)。1990年代智能agent范式被广泛接受。
- 智能agent范式:智能agent是一个会感知环境并作出行动以达致目标的系统。最简单的智能agent是那些可以解决特定问题的程序。更复杂的agent包括人类和人类组织(如公司)。这些范式可以让研究者研究单独的问题和找出有用且可验证的方案,而不需考虑单一的方法。一个解决特定问题的agent可以使用任何可行的方法-一些agent用符号方法和逻辑方法,一些则是子符号神经网络或其他新的方法。范式同时也给研究者提供一个与其他领域沟通的共同语言--如决策论和经济学(也使用abstract agents的概念)。1990年代智能agent范式被广泛接受。
- 智能agent范式:智能agent是一个会感知环境并作出行动以达致目标的系统。最简单的智能agent是那些可以解决特定问题的程序。更复杂的agent包括人类和人类组织(如公司)。这些范式可以让研究者研究单独的问题和找出有用且可验证的方案,而不需考虑单一的方法。一个解决特定问题的agent可以使用任何可行的方法-一些agent用符号方法和逻辑方法,一些则是子符号神经网络或其他新的方法。范式同时也给研究者提供一个与其他领域沟通的共同语言--如决策论和经济学(也使用abstract agents的概念)。1990年代智能agent范式被广泛接受。[4]代理架构和认知架构:研究者设计出一些系统来处理多agent系统中智能agent之间的相互作用。[60]一个系统中包含符号和子符号部分的系统称为混合智能系统,而对这种系统的研究则是人工智能系统集成。分级控制系统则给反应级别的子符号AI和最高级别的传统符号AI提供桥梁,同时放宽了规划和世界建模的时间。
- 强人工智能观点认为“有可能”制造出“真正”能推理和解决问题的智能机器,并且,这样的机器将被认为是具有知觉、有自我意识的。强人工智能可以有两类:
人类的人工智能,即机器的思考和推理就像人的思维一样。非人类的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。
- AI逐渐普及后,将会在企业管理中扮演很重要的角色,而人类的管理者应如何适度的调整自己的工作职能,有以下几点建议:
放弃行政工作退守分析预测的领域而强化自己的综合判断力。把AI当作同事,形成协同合作的团队。多琢磨在创造力以及各种流程架构设计师角色。强化自己人际网路、沟通协调、谈判上的能力。培养自身领导能力,能有效地带领一个士气高、团结及凝结力高的工作伙伴。
- Introducing Orb Communities! 🪐
The Community Layer of Web3.
Orb Communities are composable and interoperable, built on top of the @LensProtocol.lens.lens. It makes it easy to integrate community features across Lens apps.
Today, we are thrilled to present the first iteration of Orb Communities, a vision that has been with us since we embarked on the Orb journey a year ago.
These communities are a fundamental part of the composable and interoperable community layer of web3.
User-owned communities empower people by decentralizing authority and making every individual a crucial stakeholder in the community's direction and evolution.
This marks a significant shift from traditional, centralized communities, where only a select few make decisions.
We believe that @LensProtocol Profiles are much more than NFTs.
At the core of our Communities membership lies the ERC-6551 with Lens Profiles turned into Token Bound Accounts (TBA).
Communities are much more vibrant and engaging when built together.
We warmly welcome developers to build upon it! Check out our Mirror for more https://mirror.xyz/orbapp.eth/s5HNwiDup4sw2nbDi8FgZmlcpR6qIulTsW5qh6KRT0I
- wow~
- ugly
- AI逐渐普及后,将会在企业管理中扮演很重要的角色,而人类的管理者应如何适度的调整自己的工作职能,有以下几点建议:
放弃行政工作退守分析预测的领域而强化自己的综合判断力。把AI当作同事,形成协同合作的团队。多琢磨在创造力以及各种流程架构设计师角色。强化自己人际网路、沟通协调、谈判上的能力。培养自身领导能力,能有效地带领一个士气高、团结及凝结力高的工作伙伴。
- smail
- GM!
We are happy to announce that Lenspeer and Lens Wallet have Officially launched!
An all-in-one social media app built with [@lensprotocol](https://www.quadraticlenster.xyz/u/lensprotocol)
Anyone holding Lens Profile NFT can make their own ERC-6551 Wallet.
Join now: [https://lenspeer.com/](https://lenspeer.com/)
[#ethcc](https://www.quadraticlenster.xyz/search?q=ethcc&type=pubs&src=link_click) [#ETHGlobal](https://www.quadraticlenster.xyz/search?q=ETHGlobal&type=pubs&src=link_click) [#ETHGlobalParis](https://www.quadraticlenster.xyz/search?q=ETHGlobalParis&type=pubs&src=link_click)
<span className="hidden"> This post is included in the ethcc round- 2 round (0xfc68882a250f5c444f737b8e4ffbfa6ca769efcd) at quadraticlenster.xyz </span>
- 据CNN财经网数字媒体未来学家兼Webbmedia集团创始人艾米·韦伯(Amy Webb);美国在线...等纷纷预测一些即将被机器人取代的职业,日本野村总合研究所也与英国牛津大学的研究学者共同调查指出,10至20年后,日本有49%的职业(235种职业)可能会被机械和人工智慧取代而消失,直接影响约达2500万人,例如:超市店员、一般事务员、计程车司机、收费站运营商和收银员、市场营销人员、客服人员、制造业工人、金融中间人和分析师、新闻记者、电话公司职员、麻醉师、士兵和保安、律师、医生、软体开发者和操盘手、股票交易员等等高薪酬的脑力职业将最先受到冲击
- "Our vision is for Lens Protocol to enable all applications to connect seamlessly across blockchain and non-blockchain applications, and reward both individuals and the collective shared network" @stani.lens
Check out today's Cointelegraph article: https://cointelegraph.com/news/web3-userbase-could-power-new-dapp-development
- blunch
- bird
- **Introducing Lens Protocol V2**
Lens Protocol V2 – the next chapter in the evolution of Lens. V2 brings even greater control to builders and integrators as well as people exploring web3-powered experiences. Lens V2 retains its characteristic open design space that gives developers and integrators the choice.
Join us in shaping the future. Dive into the Lens Protocol V2 Open Source Codebase on Github: https://github.com/lens-protocol/core/tree/v2
Explore all the latest V2 features in our latest Mirror post:
https://mirror.xyz/lensprotocol.eth/-hJH-2IYSe56rK7IEdwSI17hUWt-paTyAs1r4Zes0uQ
- 认知能力(Cognition)
指的是人类透过学习、判断、分析等等心理活动来了解讯息、获取知识的过程与能力,对人类认知的模仿与学习也是目前AI第二个焦点领域,主要包括:
分析辨识能力:例如医学图像分析、产品推荐、垃圾邮件辨识、法律案件分析、犯罪侦测、信用风险分析、消费行为分析等。预测能力:例如AI执行的预防性维修(Predictive Maintenance)、智慧天然灾害预测与防治。判断能力:例如AI下围棋、自动驾驶车、健保诈欺判断、癌症判断等。学习能力:例如机器学习、深度学习、增强式学习等等各种学习方法。
- 1990年代,人工智能研究发展出复杂的数学工具来解决特定的分支问题。这些工具是真正的科学方法,即这些方法的结果是可测量的和可验证的,同时也是近期人工智能成功的原因。共用的数学语言也允许已有学科的合作(如数学,经济或运筹学)。Stuart J. Russell和Peter Norvig指出这些进步不亚于“革命”和“neats的成功”。有人批评这些技术太专注于特定的问题,而没有考虑长远的强人工智能目标
- its clear
- waw~~
- dancer girl
- magic in the studio today ✨
- “强人工智能”一词最初是约翰·罗杰斯·希尔勒针对电脑和其它信息处理机器创造的,其定义为:
“强人工智能观点认为计算机不仅是用来研究人的思维的一种工具;相反,只要运行适当的程序,计算机本身就是有思维的。”(J Searle in Minds Brains and Programs. The Behavioral and Brain Sciences, vol. 3, 1980)
关于强人工智能的争论,不同于更广义的一元论和二元论的争论。其争论要点是:如果一台机器的唯一工作原理就是转换编码数据,那么这台机器是不是有思维的?希尔勒认为这是不可能的。他举了个中文房间的例子来说明,如果机器仅仅是转换数据,而数据本身是对某些事情的一种编码表现,那么在不理解这一编码和这实际事情之间的对应关系的前提下,机器不可能对其处理的数据有任何理解。基于这一论点,希尔勒认为即使有机器通过了图灵测试,也不一定说明机器就真的像人一样有自我思维和自由意识。
也有哲学家持不同的观点。丹尼尔·丹尼特在其著作《意识的解释》(Consciousness Explained)里认为,人也不过是一台有灵魂的机器而已,为什么我们认为:“人可以有智能,而普通机器就不能”呢?他认为像上述的数据转换机器是有可能有思维和意识的。
有的哲学家认为如果弱人工智能是可实现的,那么强人工智能也是可实现的。比如西蒙·布莱克本(Simon Blackburn)在其哲学入门教材Think里说道,一个人的看起来是“智能”的行动并不能真正说明这个人就真的是智能的。我永远不可能知道另一个人是否真的像我一样是智能的,还是说她/他仅仅是“看起来”是智能的。基于这个论点,既然弱人工智能认为可以令机器“看起来”像是智能的,那就不能完全否定这机器是真的有智能的。布莱克本认为这是一个主观认定的问题。
需要指出的是,弱人工智能并非和强人工智能完全对立,也就是说,即使强人工智能是可能的,弱人工智能仍然是有意义的。至少,今日的计算机能做的事,像算术运算等,在一百多年前是被认为很需要智能的。并且,即使强人工智能被证明为可能的,也不代表强人工智能必定能被研制出来。
- 强人工智能观点认为“有可能”制造出“真正”能推理和解决问题的智能机器,并且,这样的机器将被认为是具有知觉、有自我意识的。强人工智能可以有两类:
人类的人工智能,即机器的思考和推理就像人的思维一样。非人类的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。