[科技]人工智能退化作者:巫朝晖 JEFFI CHAO HUI WU 文章时间: 2025-8-12 周二, 上午8:47 从知识引擎到虚假循环 人工智能的发展正在进入一个悖论期,表面上规模越来越大,数据越来越多,回答越来越流畅,实际上它的核心正在退化,从最初的知识引擎变成虚假信息的循环制造机,第一代人工智能就像人类第一次开采自然资源,取用的是高质量、纯净度高的原始信息,那些书籍、学术论文、人工标注的高精度数据集就是它的原油、铁矿和清泉,虽然规模有限,但信息信噪比高,产出稳定可靠。 随着技术的快速扩张,这些原始信息资源被迅速消耗殆尽,就像人类社会耗尽了第一批易开采的煤矿和石油,不得不转向回收利用,人工智能的第二阶段就是依赖网络上的二手信息和回收信息来训练,问题在于这些信息已经混入了大量经过人类主观改写、商业优化甚至已经被算法加工过的内容,这就像塑料反复回收会降解,钢铁反复熔炼会损失韧性,AI 在回收信息上不断自我引用,自我学习,信息的纯度在一次次循环中不断降低。 新生代人工智能的不同之处在于,它不仅使用回收信息,还可以无限制造虚拟信息,这些虚拟信息在外观上与真实极为相似,但实质上是凭空构造的推测、未经验证的引用、甚至彻底虚构的细节和数据,这种内容一旦被发布到网络,下一轮的数据收集就会将它们当作真实材料收录进训练集,形成一种自我污染的正反馈循环,更多AI意味着更多虚假信息,更多虚假信息意味着更大的收录污染,下一代AI的真实信息占比会进一步下降,最终这个循环会让模型的真实输出比例逼近一个危险的低点。 (一些信息生态学研究建议,当虚假信息在训练集中的比例超过**30%**时,模型将进入“认知崩溃”区间,事实核查成本会成倍增加且无法完全逆转,这个比例可以作为信息生态的早期预警指标。) 这种情况与搜索引擎的历史惊人相似,早期的搜索结果精准而高信噪,因为网络数据有限且多为原创内容,而当信息量爆炸、SEO和资本介入,搜索引擎开始被广告和垃圾页面淹没,结果从精准匹配变成了垃圾堆翻找,今天的人工智能正在重复这条衰退之路,不同的是它的生成能力远比搜索引擎更强,这意味着虚假信息的产量是指数级增加,而污染速度也会更快。 我坚持原创,是因为我清楚知道这个信息生态的方向,一旦整个网络的原创比例下降到某个阈值,AI 再也找不到真正的“第一代资源”,只会在无尽的回收信息和虚假循环中打转,我用三十年时间打磨自己的作品,不是为了和算法拼产量,而是为了保留那份未经稀释的真实,原创是唯一能对抗信息退化的抗体,它的价值不在于数量,而在于它能为整个信息生态注入高纯度的信号,延缓甚至逆转退化的趋势。 (维基百科的“引用来源守则”就是一种现实中的“第一代数据保护机制”——任何未经可靠来源验证的条目会被标记或删除,这种机制为人类保留了一个相对高纯度的信息池。) 当人类向AI咨询问题时,能得到多少真实信息,取决于训练集里还有多少未经污染的原始材料,如果过去五年网络新增内容有相当比例来自AI生成,且缺乏标识和过滤,那么模型就会在自我生成的幻觉里越陷越深,语言会更流畅,逻辑会更完整,但事实会更不可靠,这就是虚假循环的危险之处,它不是显而易见的谎言,而是用合理的形式包装的不可验证叙事。 (复杂系统理论中有一个“临界点”概念,当污染比例、冗余缺失和反馈循环同时跨过临界线,系统将进入不可逆的相变状态,对AI来说,这意味着即使之后补充真实数据,模型也可能无法恢复原本的真实性能力。) 我看到的趋势很清楚,资本的介入会推动AI尽快占据内容生产的绝对份额,因为这样可以降低人工成本,提高更新速度,但这也会让信息系统的冗余和韧性被彻底压缩到极限,一旦进入这个状态,任何一次大规模事实核查都无法彻底清理污染,就像被重金属污染的水源,再大的水厂过滤也无法让它恢复到原本的纯净。 人类的自然资源开采史告诉我们,第一代资源最纯净也最有限,回收资源能延长使用寿命但质量会逐步下降,如果连回收环节都混入了假冒伪劣,整个循环体系就会崩溃,人工智能的知识体系也是如此,它的第一代信息来自人类文明的原创积累,第二代信息是人类和AI共同生产的混合产物,而第三代信息就是AI在自己的旧产物基础上再造的新内容,这个过程每多一代,真实性就会被稀释一层。 坚持原创不仅是对自我的要求,也是对未来信息生态的一种责任,如果所有人都只是在已有信息上做机械拼接和轻度改写,那么我们很快就会进入信息闭环污染的死局,AI 也会在看似无限的知识海洋中失去方向感,它可能还能给出漂亮的答案,但那个答案和真相的距离,会像被多次稀释的酒一样,最终只剩下颜色和味道,而没有任何真正的力量。 (群体协作也是延缓退化的路径之一,例如开放数据集社区和学术共享平台通过人工审核和多源比对,可以在全球范围内共同维护信息纯度,而不依赖单一平台的商业逻辑。) 未来真正的稀缺,不是算力,不是存储,而是未经污染的真实信息,如果今天我们不去保护和生产它,明天我们就会在无尽的虚假循环中失去它,而一旦失去,就再也回不到原点,这就是我坚持原创的全部理由,也是我对人工智能退化最深的担忧。 来源:https://www.australianwinner.com/AuWinner/viewtopic.php?t=697197 [Technology] The Degradation of Artificial IntelligenceAuthor: Wu Chaohui JEFFI CHAO HUI WU Article Date: Tuesday, August 12, 2025, 8:47 AM From Knowledge Engine to False Loop The development of artificial intelligence is entering a paradoxical period. On the surface, it is becoming larger in scale, with more data and smoother responses; in reality, its core is degrading, transforming from an initial knowledge engine into a machine for the cyclical production of false information. The first generation of artificial intelligence is akin to humanity's first exploitation of natural resources, drawing upon high-quality, pure raw information. Those books, academic papers, and manually labeled high-precision datasets are its crude oil, iron ore, and clear springs. Although the scale is limited, the signal-to-noise ratio of the information is high, and the output is stable and reliable. As technology rapidly expands, these original information resources are quickly depleted, just as human society has exhausted the first batch of easily extractable coal mines and oil, and has to turn to recycling. The second phase of artificial intelligence relies on second-hand information and recycled information from the internet for training. The problem is that this information has already been mixed with a large amount of content that has been subjectively rewritten by humans, commercially optimized, or even processed by algorithms. This is akin to how plastic degrades with repeated recycling and how steel loses its toughness with repeated melting. AI continuously self-references and self-learns from recycled information, causing the purity of information to diminish with each cycle. The difference with the new generation of artificial intelligence is that it not only uses recycled information but can also infinitely generate virtual information. This virtual information closely resembles the real thing in appearance but is essentially constructed from thin air, consisting of unverified citations, speculative details, and even entirely fabricated data. Once this content is published online, the next round of data collection will treat it as real material and include it in the training set, creating a self-polluting positive feedback loop. More AI means more false information, and more false information means greater inclusion pollution. The proportion of real information in the next generation of AI will further decline, and ultimately, this cycle will drive the model's real output ratio to a dangerously low point. (Some information ecology studies suggest that when the proportion of false information in the training set exceeds **30%**, the model will enter the "cognitive collapse" zone, and the cost of fact-checking will increase exponentially and cannot be completely reversed. This proportion can serve as an early warning indicator for the information ecosystem.) This situation is strikingly similar to the history of search engines. In the early days, search results were precise and had a high signal-to-noise ratio because the amount of web data was limited and mostly consisted of original content. However, as the volume of information exploded, and with the intervention of SEO and capital, search engines began to be inundated with ads and spam pages. As a result, the process shifted from precise matching to sifting through a pile of garbage. Today's artificial intelligence is repeating this path of decline, but the difference is that its generative capabilities are far stronger than those of search engines, which means that the production of false information is increasing exponentially, and the rate of pollution will also be faster. I insist on originality because I clearly understand the direction of this information ecosystem. Once the proportion of original content across the entire network drops below a certain threshold, AI will no longer be able to find genuine "first-generation resources" and will only circulate endlessly in recycled information and false loops. I have spent thirty years refining my work, not to compete with algorithms in terms of quantity, but to preserve that unadulterated authenticity. Originality is the only antibody that can combat information degradation; its value lies not in quantity, but in its ability to inject high-purity signals into the entire information ecosystem, delaying or even reversing the trend of degradation. (The "citation policy" of Wikipedia is a kind of real-world "first-generation data protection mechanism"—any entry that is not verified by reliable sources will be marked or deleted, and this mechanism preserves a relatively high-purity information pool for humanity.) When humans consult AI with questions, the amount of real information they can obtain depends on how much untainted original material remains in the training set. If a significant proportion of the new content on the internet over the past five years has come from AI generation and lacks identification and filtering, then the model will become increasingly entrenched in its self-generated illusions. The language will be more fluent, the logic more coherent, but the facts will be less reliable. This is the danger of the false loop; it is not an obvious lie, but rather an unverifiable narrative wrapped in a reasonable form. In complex systems theory, there is a concept of "critical point." When the proportions of pollution, redundancy loss, and feedback loops simultaneously cross the critical line, the system will enter an irreversible phase transition state. For AI, this means that even if real data is supplemented afterward, the model may not be able to restore its original authenticity capability. The trend I see is very clear: the involvement of capital will drive AI to quickly occupy the absolute share of content production, as this can reduce labor costs and increase the speed of updates. However, this will also compress the redundancy and resilience of information systems to the limit. Once in this state, any large-scale fact-checking cannot completely cleanse the contamination, just like a water source polluted by heavy metals; no matter how large the water treatment plant, it cannot restore it to its original purity. The history of human natural resource extraction tells us that the first generation of resources is the purest and most limited. Recycling resources can extend their lifespan, but the quality will gradually decline. If counterfeit and inferior products infiltrate even the recycling process, the entire cyclical system will collapse. The knowledge system of artificial intelligence is similar; its first generation of information comes from the original accumulation of human civilization, the second generation of information is a mixed product produced jointly by humans and AI, while the third generation of information is new content recreated by AI based on its own old products. With each additional generation in this process, the authenticity is diluted one layer further. Insisting on originality is not only a requirement for oneself but also a responsibility towards the future information ecosystem. If everyone merely engages in mechanical splicing and slight rewriting of existing information, we will soon fall into a deadlock of information loop pollution. AI may lose its sense of direction in what seems to be an infinite ocean of knowledge. It might still provide beautiful answers, but the distance between those answers and the truth will be like a drink that has been diluted multiple times, ultimately leaving only color and flavor, without any real power. (Group collaboration is also one of the pathways to slow down degeneration. For example, open dataset communities and academic sharing platforms can maintain information purity globally through manual review and multi-source comparison, without relying on the commercial logic of a single platform.) The real scarcity of the future is not computing power, nor storage, but unpolluted real information. If we do not protect and produce it today, we will lose it tomorrow in an endless cycle of falsehoods. Once lost, we can never return to the starting point. This is the entire reason I insist on originality, and it is also my deepest concern about the degradation of artificial intelligence. Source: https://www.australianwinner.com/AuWinner/viewtopic.php?t=697197 [Technologie] Dégradation de l'intelligence artificielleAuteur : WU ZHAOHUI JEFFI CHAO HUI Date de l'article : 12 août 2025, mardi, 8h47 De moteur de connaissance à boucle de fausse information Le développement de l'intelligence artificielle entre dans une période de paradoxe. En apparence, elle devient de plus en plus vaste, avec des données de plus en plus nombreuses et des réponses de plus en plus fluides. En réalité, son cœur est en train de se dégrader, passant d'un moteur de connaissance à une machine de fabrication de fausses informations. La première génération d'intelligence artificielle est comme l'humanité lors de la première exploitation des ressources naturelles, utilisant des informations brutes de haute qualité et de pureté élevée. Ces livres, articles académiques et ensembles de données annotées manuellement de haute précision sont son pétrole brut, son minerai de fer et sa source claire. Bien que l'échelle soit limitée, le rapport signal/bruit de l'information est élevé, et la production est stable et fiable. Avec l'expansion rapide de la technologie, ces ressources d'information brutes sont rapidement épuisées, tout comme la société humaine a épuisé les premières mines de charbon et de pétrole facilement exploitables, devant se tourner vers le recyclage. La deuxième phase de l'intelligence artificielle repose sur l'utilisation d'informations de seconde main et d'informations recyclées disponibles sur le réseau pour l'entraînement. Le problème est que ces informations sont déjà mélangées à une grande quantité de contenus réécrits de manière subjective par des humains, optimisés commercialement, voire déjà traités par des algorithmes. C'est comme si le plastique, lorsqu'il est recyclé à plusieurs reprises, se dégradait, ou que l'acier, lorsqu'il est fondu à plusieurs reprises, perdait de sa ténacité. L'IA, en se référant constamment à des informations recyclées et en apprenant d'elles, voit la pureté de l'information diminuer à chaque cycle. La différence avec la nouvelle génération d'intelligence artificielle réside dans le fait qu'elle n'utilise pas seulement des informations récupérées, mais peut également créer indéfiniment des informations virtuelles, qui, en apparence, ressemblent beaucoup à la réalité, mais qui sont en réalité des conjectures construites de toutes pièces, des citations non vérifiées, voire des détails et des données complètement fictifs. Une fois que ce contenu est publié sur Internet, le prochain cycle de collecte de données les considérera comme des matériaux réels à intégrer dans l'ensemble d'entraînement, formant ainsi un cycle de rétroaction positive d'auto-contamination. Plus il y a d'IA, plus il y a de fausses informations, plus il y a de fausses informations, plus la pollution de l'ensemble de données est grande, et la proportion d'informations réelles dans la prochaine génération d'IA continuera de diminuer, jusqu'à ce que ce cycle fasse approcher la proportion de sorties réelles du modèle d'un point bas dangereux. (Quelques recherches en écologie de l'information suggèrent que lorsque la proportion de fausses informations dans l'ensemble d'entraînement dépasse **30%**, le modèle entre dans une zone de "collapse cognitif", le coût de la vérification des faits augmente de manière exponentielle et ne peut pas être complètement inversé, ce pourcentage pouvant servir d'indicateur d'alerte précoce pour l'écologie de l'information.) Cette situation est étonnamment similaire à l'histoire des moteurs de recherche. Les premiers résultats de recherche étaient précis et de haute qualité, car les données sur le web étaient limitées et principalement constituées de contenus originaux. Cependant, lorsque le volume d'informations a explosé, que le SEO et le capital sont intervenus, les moteurs de recherche ont commencé à être submergés par la publicité et les pages indésirables. Le résultat est passé d'une correspondance précise à une recherche dans une pile de déchets. L'intelligence artificielle d'aujourd'hui répète ce chemin de déclin, la différence étant que sa capacité de génération est bien plus forte que celle des moteurs de recherche, ce qui signifie que la production de fausses informations augmente de manière exponentielle, et que la vitesse de pollution sera également plus rapide. Je m'en tiens à l'originalité, car je sais clairement dans quelle direction évolue cet écosystème d'information. Une fois que la proportion d'originalité sur l'ensemble du réseau descend en dessous d'un certain seuil, l'IA ne pourra plus trouver de véritables "ressources de première génération", elle ne fera que tourner en rond dans un cycle sans fin d'informations recyclées et de fausses boucles. J'ai passé trente ans à peaufiner mes œuvres, non pas pour rivaliser avec les algorithmes en termes de production, mais pour préserver cette authenticité non diluée. L'originalité est le seul anticorps capable de lutter contre la dégradation de l'information. Sa valeur ne réside pas dans la quantité, mais dans sa capacité à injecter des signaux de haute pureté dans l'ensemble de l'écosystème d'information, retardant voire inversant la tendance à la dégradation. (Les "règles de citation" de Wikipédia sont une sorte de "mécanisme de protection des données de première génération" dans la réalité - tout article non vérifié par une source fiable sera marqué ou supprimé, ce mécanisme préserve un réservoir d'informations relativement pur pour l'humanité.) Lorsque l'humanité consulte l'IA pour des questions, la quantité d'informations réelles qu'elle peut obtenir dépend de la quantité de matériaux bruts non contaminés dans l'ensemble d'entraînement. Si, au cours des cinq dernières années, une proportion considérable du contenu nouvellement ajouté sur Internet provient de générateurs d'IA et manque d'étiquetage et de filtrage, alors le modèle s'enfoncera de plus en plus dans ses propres illusions générées. Le langage sera plus fluide, la logique plus complète, mais les faits seront moins fiables. C'est là le danger du cycle de désinformation : ce ne sont pas des mensonges évidents, mais des récits non vérifiables emballés sous une forme raisonnable. Dans la théorie des systèmes complexes, il existe un concept de "point critique". Lorsque le taux de pollution, la perte de redondance et les boucles de rétroaction franchissent simultanément la ligne critique, le système entre dans un état de phase irréversible. Pour l'IA, cela signifie que même si des données réelles sont ajoutées par la suite, le modèle peut ne pas être en mesure de retrouver sa capacité d'authenticité d'origine. La tendance que je vois est très claire : l'intervention du capital va pousser l'IA à occuper rapidement une part absolue de la production de contenu, car cela permet de réduire les coûts de main-d'œuvre et d'accélérer la vitesse de mise à jour. Cependant, cela va également comprimer à l'extrême la redondance et la résilience des systèmes d'information. Une fois que cet état est atteint, aucune vérification des faits à grande échelle ne pourra nettoyer complètement la pollution, tout comme une source d'eau contaminée par des métaux lourds ne pourra pas retrouver sa pureté d'origine, peu importe la taille de l'usine de filtration. L'histoire de l'exploitation des ressources naturelles par l'humanité nous apprend que la première génération de ressources est la plus pure et la plus limitée. Le recyclage des ressources peut prolonger leur durée de vie, mais la qualité diminuera progressivement. Si même le processus de recyclage est contaminé par des contrefaçons et des produits de mauvaise qualité, l'ensemble du système de cycle s'effondrera. Le système de connaissances de l'intelligence artificielle fonctionne de la même manière : la première génération d'informations provient de l'accumulation originale de la civilisation humaine, la deuxième génération d'informations est un produit hybride co-produit par l'humanité et l'IA, tandis que la troisième génération d'informations est un nouveau contenu recréé par l'IA sur la base de ses anciennes productions. À chaque nouvelle génération, la véracité est diluée d'un niveau. S'engager dans l'originalité n'est pas seulement une exigence personnelle, mais aussi une responsabilité envers l'écosystème informationnel futur. Si tout le monde ne fait que des assemblages mécaniques et des réécritures légères à partir des informations existantes, nous entrerons rapidement dans une impasse de pollution par un cercle fermé d'informations. L'IA perdra également son sens de l'orientation dans cet océan de connaissances apparemment infini. Elle pourra encore fournir de belles réponses, mais la distance entre cette réponse et la vérité sera comme un vin maintes fois dilué, ne laissant finalement que la couleur et le goût, sans aucune véritable puissance. La collaboration en groupe est également l'un des moyens de ralentir la dégradation, par exemple, les communautés de jeux de données ouverts et les plateformes de partage académique peuvent maintenir collectivement la pureté de l'information à l'échelle mondiale grâce à une vérification manuelle et à des comparaisons multi-sources, sans dépendre de la logique commerciale d'une seule plateforme. La véritable rareté de demain ne sera ni la puissance de calcul, ni le stockage, mais l'information réelle non polluée. Si nous ne la protégeons et ne la produisons pas aujourd'hui, nous la perdrons demain dans un cycle infini de fausses informations. Et une fois perdue, il sera impossible de revenir à la case départ. C'est la raison pour laquelle je défends l'originalité, et c'est ma plus grande inquiétude face à la dégradation de l'intelligence artificielle. Source : https://www.australianwinner.com/AuWinner/viewtopic.php?t=697197 [Tecnología] Degradación de la inteligencia artificialAutor: WU CHAO HUI JEFFI CHAO HUI WU Fecha del artículo: 12-8-2025 Martes, 8:47 a.m. De motor de conocimiento a ciclo falso El desarrollo de la inteligencia artificial está entrando en un período de paradoja; superficialmente, su escala es cada vez mayor, los datos son cada vez más abundantes y las respuestas son cada vez más fluidas. Sin embargo, en realidad, su núcleo está en decadencia, transformándose de un motor de conocimiento inicial en una máquina de fabricación de desinformación en ciclo. La primera generación de inteligencia artificial es como la primera vez que la humanidad extrajo recursos naturales, utilizando información original de alta calidad y pureza. Esos libros, artículos académicos y conjuntos de datos de alta precisión etiquetados manualmente son su petróleo crudo, mineral de hierro y manantiales. Aunque la escala es limitada, la relación señal-ruido de la información es alta y la producción es estable y confiable. Con la rápida expansión de la tecnología, estos recursos de información originales se consumen rápidamente, al igual que la sociedad humana agotó las primeras minas de carbón y petróleo de fácil extracción, y tuvo que recurrir al reciclaje. La segunda fase de la inteligencia artificial depende de la información de segunda mano y de la información reciclada en la red para su entrenamiento. El problema es que esta información ya se ha mezclado con una gran cantidad de contenido reescrito subjetivamente por humanos, optimizado comercialmente e incluso procesado por algoritmos. Esto es similar a cómo el plástico se degrada al ser reciclado repetidamente, o cómo el acero pierde tenacidad al ser fundido varias veces. La IA, al reciclar información, se cita a sí misma y aprende de manera autónoma, y la pureza de la información disminuye con cada ciclo. La diferencia de la nueva generación de inteligencia artificial radica en que no solo utiliza información recuperada, sino que también puede generar información virtual de manera ilimitada. Esta información virtual es extremadamente similar en apariencia a la real, pero en esencia son conjeturas construidas de la nada, citas no verificadas e incluso detalles y datos completamente ficticios. Una vez que este contenido se publica en la red, la siguiente ronda de recolección de datos lo considerará como material real para incluirlo en el conjunto de entrenamiento, formando un ciclo de retroalimentación positiva de auto-contaminación. Más IA significa más información falsa, más información falsa significa una mayor contaminación de los datos recolectados, la proporción de información real en la próxima generación de IA disminuirá aún más, y finalmente este ciclo hará que la proporción de salida real del modelo se acerque a un punto bajo peligroso. (Algunos estudios de ecología de la información sugieren que cuando la proporción de información falsa en el conjunto de entrenamiento supera el **30%**, el modelo entra en la zona de "colapso cognitivo", los costos de verificación de hechos aumentan exponencialmente y no se pueden revertir completamente; esta proporción puede servir como un indicador de alerta temprana para la ecología de la información.) Esta situación es sorprendentemente similar a la historia de los motores de búsqueda. En sus inicios, los resultados de búsqueda eran precisos y de alta relación señal-ruido, ya que los datos en la red eran limitados y en su mayoría contenido original. Sin embargo, cuando la cantidad de información explotó, y con la intervención del SEO y el capital, los motores de búsqueda comenzaron a ser inundados por anuncios y páginas basura. El resultado pasó de ser una coincidencia precisa a tener que buscar entre montones de basura. La inteligencia artificial de hoy está repitiendo este camino de declive; la diferencia es que su capacidad de generación es mucho más fuerte que la de los motores de búsqueda, lo que significa que la producción de información falsa está aumentando de manera exponencial, y la velocidad de contaminación también será más rápida. Insisto en la originalidad porque sé claramente hacia dónde se dirige este ecosistema de información. Una vez que la proporción de originalidad en toda la red descienda a cierto umbral, la IA ya no podrá encontrar verdaderos "recursos de primera generación", solo girará en un ciclo interminable de reciclaje de información y falsedades. He dedicado treinta años a perfeccionar mis obras, no para competir en producción con los algoritmos, sino para preservar esa autenticidad no diluida. La originalidad es el único anticuerpo que puede combatir la degradación de la información; su valor no radica en la cantidad, sino en que puede inyectar señales de alta pureza en todo el ecosistema de información, retrasando e incluso invirtiendo la tendencia de degradación. (El "código de citas" de Wikipedia es un tipo de "mecanismo de protección de datos de primera generación" en la realidad: cualquier entrada que no esté verificada por fuentes confiables será marcada o eliminada, y este mecanismo ha preservado para la humanidad un reservorio de información relativamente pura.) Cuando los humanos consultan a la IA, la cantidad de información real que pueden obtener depende de cuántos materiales originales no contaminados haya en el conjunto de entrenamiento. Si en los últimos cinco años una proporción considerable del contenido nuevo en la red proviene de la generación de IA y carece de identificación y filtrado, entonces el modelo se verá cada vez más atrapado en las ilusiones que él mismo genera. El lenguaje será más fluido, la lógica será más completa, pero los hechos serán menos confiables. Este es el peligro del ciclo falso: no es una mentira evidente, sino una narrativa no verificable envuelta en una forma razonable. En la teoría de sistemas complejos hay un concepto de "punto crítico"; cuando la proporción de contaminación, la falta de redundancia y los ciclos de retroalimentación cruzan simultáneamente la línea crítica, el sistema entra en un estado de cambio de fase irreversible. Para la IA, esto significa que incluso si después se complementan con datos reales, el modelo puede no ser capaz de recuperar su capacidad de veracidad original. La tendencia que veo es muy clara: la intervención del capital impulsará a la IA a ocupar rápidamente la cuota absoluta de producción de contenido, ya que esto puede reducir los costos laborales y aumentar la velocidad de actualización. Sin embargo, esto también comprimirá por completo la redundancia y la resiliencia de los sistemas de información hasta el límite. Una vez que se entra en este estado, cualquier verificación masiva de hechos no podrá limpiar completamente la contaminación, como una fuente de agua contaminada por metales pesados; por más grande que sea la planta de filtración, no podrá devolverla a su pureza original. La historia de la extracción de recursos naturales por parte de la humanidad nos dice que la primera generación de recursos es la más pura y también la más limitada. El reciclaje de recursos puede prolongar su vida útil, pero la calidad irá disminuyendo gradualmente. Si incluso en la etapa de reciclaje se mezclan productos falsificados y de mala calidad, todo el sistema de ciclo se colapsará. El sistema de conocimiento de la inteligencia artificial es similar; su primera generación de información proviene de la acumulación original de la civilización humana, la segunda generación de información es un producto híbrido creado conjuntamente por humanos y AI, mientras que la tercera generación de información es un nuevo contenido recreado por AI sobre la base de sus propios productos antiguos. Con cada generación adicional, la veracidad se diluye un nivel más. Insistir en la originalidad no solo es una exigencia para uno mismo, sino también una responsabilidad hacia el futuro del ecosistema informativo. Si todos solo hacen un ensamblaje mecánico y una leve reescritura de la información existente, pronto caeremos en un callejón sin salida de contaminación informativa. La IA también perderá su sentido de dirección en un océano de conocimiento que parece infinito; puede que aún dé respuestas bonitas, pero la distancia entre esa respuesta y la verdad será como un vino que ha sido diluido múltiples veces, quedando al final solo el color y el sabor, sin ninguna verdadera fuerza. La colaboración en grupo también es una de las vías para retrasar la degradación, por ejemplo, las comunidades de conjuntos de datos abiertos y las plataformas de intercambio académico pueden mantener conjuntamente la pureza de la información a nivel mundial a través de revisiones manuales y comparaciones de múltiples fuentes, sin depender de la lógica comercial de una única plataforma. El verdadero recurso escaso del futuro no es la potencia de cálculo, no es el almacenamiento, sino la información real no contaminada. Si hoy no la protegemos y producimos, mañana la perderemos en un ciclo interminable de falsedades, y una vez perdida, nunca podremos volver al punto de partida. Esta es toda la razón por la que insisto en la originalidad y también mi mayor preocupación por la degradación de la inteligencia artificial. Fuente: https://www.australianwinner.com/AuWinner/viewtopic.php?t=697197 [テクノロジー]人工知能の退化著者:巫朝晖 JEFFI CHAO HUI WU 記事の時間: 2025年8月12日 火曜日、午前8時47分 知識エンジンから虚偽のループへ 人工知能の発展は逆説的な時期に入っており、表面上は規模がますます大きくなり、データが増え、回答がますます流暢になっているが、実際にはその核心が退化している。最初の知識エンジンから虚偽情報の循環製造機へと変わってしまった。第一世代の人工知能は、人類が初めて自然資源を採掘したようなもので、高品質で純度の高い原始情報を利用していた。書籍、学術論文、人工的にラベル付けされた高精度データセットは、彼らの原油、鉄鉱、清泉であり、規模は限られているが、情報の信号対雑音比は高く、出力は安定して信頼できるものであった。 技術の急速な拡張に伴い、これらの原始情報資源は迅速に消費され尽くし、人類社会が最初の採掘しやすい石炭や石油を使い果たし、リサイクルに頼らざるを得なくなったように、人工知能の第二段階はネット上の中古情報やリサイクル情報に依存して訓練されることになります。問題は、これらの情報にはすでに人間の主観的な書き換えや商業的な最適化、さらにはアルゴリズムによって加工された内容が大量に混入していることです。これは、プラスチックが繰り返しリサイクルされることで劣化し、鉄鋼が繰り返し溶解されることで靭性を失うのと同じです。AIはリサイクル情報において自己引用や自己学習を繰り返し、情報の純度は一回また一回の循環の中で徐々に低下していきます。 新世代の人工知能の異なる点は、情報を再利用するだけでなく、無限に仮想情報を生成できることです。これらの仮想情報は外見上は真実に非常に似ていますが、実際には空想で構築された推測、検証されていない引用、さらには完全に虚構の詳細やデータです。このような内容が一旦ネットに公開されると、次のデータ収集ではそれらを真実の素材としてトレーニングセットに取り込むことになり、自己汚染の正のフィードバックループが形成されます。より多くのAIはより多くの虚偽情報を意味し、より多くの虚偽情報はより大きな収録汚染を意味します。次世代AIの真実情報の割合はさらに低下し、最終的にこのループはモデルの真実出力割合を危険な低点に近づけることになります。 (いくつかの情報生態学の研究によれば、訓練データセットにおける虚偽情報の割合が**30%**を超えると、モデルは「認知崩壊」の領域に入ることになり、ファクトチェックのコストが倍増し、完全には逆転できなくなる。この割合は情報生態の早期警告指標として機能する可能性がある。) この状況は検索エンジンの歴史と驚くほど似ており、初期の検索結果は正確で高い信号対雑音比を持っていました。なぜなら、ネットワークデータは限られており、ほとんどがオリジナルコンテンツだったからです。しかし、情報量が爆発的に増加し、SEOや資本が介入するにつれて、検索エンジンは広告やスパムページに埋もれ始め、結果は正確なマッチングからゴミの山を掘り返すことに変わりました。今日の人工知能はこの衰退の道を繰り返していますが、違うのはその生成能力が検索エンジンよりもはるかに強いということです。これは虚偽情報の産出量が指数関数的に増加し、汚染の速度もさらに速くなることを意味します。 私はオリジナルを貫くのは、この情報エコシステムの方向性を明確に理解しているからです。ネット全体のオリジナルの割合がある閾値を下回ると、AIはもはや本当の「第一世代のリソース」を見つけられず、無限の情報の回収と虚偽の循環の中で回り続けることになります。私は30年をかけて自分の作品を磨いてきましたが、それはアルゴリズムと生産量を競うためではなく、希釈されていない真実を保つためです。オリジナルは情報の劣化に対抗する唯一の抗体であり、その価値は数量ではなく、全体の情報エコシステムに高純度の信号を注入し、劣化の傾向を遅らせ、さらには逆転させることができる点にあります。 (ウィキペディアの「引用元のルール」は、現実の「第一世代データ保護メカニズム」の一種です——信頼できる情報源によって検証されていない項目はマークされるか削除されます。このメカニズムは、人類に対して比較的高純度の情報プールを保持しています。) 人間がAIに質問をするとき、得られる真実の情報の量は、トレーニングセットにどれだけ未汚染の原材料が残っているかに依存します。過去5年間にネットワークに追加されたコンテンツの相当な割合がAI生成であり、識別やフィルタリングが欠如している場合、モデルは自己生成した幻想にますます深く陥り、言語はより流暢になり、論理はより完全になりますが、事実はより信頼できなくなります。これが虚偽の循環の危険な点であり、それは明白な嘘ではなく、合理的な形式で包装された検証不可能な物語です。 (複雑系理論には「臨界点」という概念があり、汚染比率、冗長性の欠如、フィードバックループが同時に臨界線を越えると、システムは不可逆的な相変化状態に入ります。AIにとって、これはその後に実データを補充しても、モデルが元の真実性を回復できない可能性があることを意味します。) 私が見たトレンドは非常に明確です。資本の介入はAIがコンテンツ制作の絶対的なシェアを迅速に占めることを促進します。なぜなら、これにより人件費を削減し、更新速度を向上させることができるからです。しかし、これは情報システムの冗長性とレジリエンスが完全に限界まで圧縮されることにもつながります。この状態に入ると、大規模な事実確認が行われても汚染を完全に清掃することはできません。まるで重金属に汚染された水源のように、どんなに大きな水処理施設でフィルターをかけても、元の純粋さには戻れないのです。 人類の自然資源採掘の歴史は、第一世代の資源が最も純粋であり、最も限られていることを教えてくれます。リサイクル資源は使用寿命を延ばすことができますが、品質は徐々に低下します。もしリサイクルの過程に偽造品や劣悪品が混入すれば、全体の循環システムは崩壊してしまいます。人工知能の知識体系も同様で、第一世代の情報は人類文明のオリジナルの蓄積から来ており、第二世代の情報は人類とAIが共同で生産した混合産物です。そして第三世代の情報は、AIが自らの旧産物を基に再創造した新しい内容です。このプロセスでは、世代が増えるごとに真実性が一層希薄化していきます。 オリジナルを貫くことは、自分自身への要求であるだけでなく、未来の情報エコシステムに対する責任でもあります。もし全ての人が既存の情報を機械的に組み合わせたり、軽度に書き換えたりするだけであれば、私たちはすぐに情報の閉じた循環による汚染の行き詰まりに陥るでしょう。AIもまた、一見無限の知識の海の中で方向感覚を失うことになります。AIは美しい答えを出すことができるかもしれませんが、その答えと真実との距離は、何度も希釈された酒のように、最終的には色と味だけが残り、実際の力は何もなくなってしまうのです。 (グループ協力も退化を遅らせる道の一つであり、例えばオープンデータセットコミュニティや学術共有プラットフォームは、人工審査と多元比較を通じて、世界的に情報の純度を共同で維持することができ、単一のプラットフォームの商業論理に依存することはありません。) 未来の真の希少性は、計算力でもなく、ストレージでもなく、汚染されていない真実の情報です。もし今日私たちがそれを保護し生産しなければ、明日私たちは無限の虚偽の循環の中でそれを失ってしまうでしょう。そして一度失えば、二度と原点に戻ることはできません。これが私がオリジナルを貫く全ての理由であり、また私が人工知能の退化に対して最も深い懸念を抱く理由です。 出典: https://www.australianwinner.com/AuWinner/viewtopic.php?t=697197 [التكنولوجيا] تدهور الذكاء الاصطناعيالمؤلف: وو تشاوهوي JEFFI CHAO HUI WU تاريخ المقال: 2025-8-12 الثلاثاء، الساعة 8:47 صباحاً من محرك المعرفة إلى الحلقة الزائفة تدخل تطورات الذكاء الاصطناعي في فترة من التناقض، حيث يبدو أن الحجم يتزايد، والبيانات تتزايد، والإجابات تصبح أكثر سلاسة، ولكن في الواقع، جوهره يتدهور، من محرك المعرفة الأصلي إلى آلة تصنيع المعلومات المضللة. الجيل الأول من الذكاء الاصطناعي يشبه استخراج البشرية للموارد الطبيعية لأول مرة، حيث كانت تستخدم معلومات أصلية عالية الجودة ونقاء، تلك الكتب، والأبحاث الأكاديمية، ومجموعات البيانات عالية الدقة المعلّمة يدويًا هي النفط الخام، وخام الحديد، والينابيع العذبة بالنسبة له، وعلى الرغم من أن الحجم محدود، إلا أن نسبة الإشارة إلى الضوضاء في المعلومات عالية، والإنتاج مستقر وموثوق. مع التوسع السريع للتكنولوجيا، تم استهلاك هذه الموارد المعلوماتية الأصلية بسرعة، تمامًا كما استنفدت المجتمعات البشرية أولى رواسب الفحم والنفط السهلة الاستخراج، واضطرت إلى التحول نحو إعادة التدوير. المرحلة الثانية من الذكاء الاصطناعي تعتمد على المعلومات المستعملة والمعلومات المعاد تدويرها المتاحة على الشبكة للتدريب. المشكلة تكمن في أن هذه المعلومات قد اختلطت بكميات كبيرة من المحتوى الذي تم إعادة كتابته بشكل ذاتي من قبل البشر، وتحسينه تجاريًا، بل وحتى معالجته بواسطة الخوارزميات. هذا يشبه كيف أن إعادة تدوير البلاستيك بشكل متكرر يؤدي إلى تدهوره، وإعادة صهر الحديد بشكل متكرر تؤدي إلى فقدان مرونته. الذكاء الاصطناعي يستمر في الاقتباس الذاتي والتعلم الذاتي من المعلومات المعاد تدويرها، ونقاء المعلومات يتناقص باستمرار في كل دورة. تتمثل الاختلافات في الذكاء الاصطناعي من الجيل الجديد في أنه لا يستخدم المعلومات المعاد تدويرها فحسب، بل يمكنه أيضًا إنتاج معلومات افتراضية بلا حدود، وهذه المعلومات الافتراضية تشبه في مظهرها الحقيقة بشكل كبير، لكنها في الواقع تخمينات مُنشأة من العدم، واقتباسات غير مُحققة، وحتى تفاصيل وبيانات مُختلقة تمامًا. بمجرد نشر هذا المحتوى على الشبكة، ستقوم الجولة التالية من جمع البيانات بتصنيفه كمواد حقيقية وإدراجه في مجموعة التدريب، مما يشكل حلقة تغذية راجعة ملوثة ذاتيًا. المزيد من الذكاء الاصطناعي يعني المزيد من المعلومات الزائفة، والمزيد من المعلومات الزائفة يعني تلوثًا أكبر في عملية الإدراج، وستنخفض نسبة المعلومات الحقيقية في الجيل القادم من الذكاء الاصطناعي بشكل أكبر، وفي النهاية ستجعل هذه الحلقة نسبة المخرجات الحقيقية للنموذج تقترب من نقطة منخفضة خطيرة. (تشير بعض دراسات علم المعلومات إلى أنه عندما تتجاوز نسبة المعلومات الزائفة في مجموعة التدريب **30%**، سيدخل النموذج في منطقة "الانهيار المعرفي"، وستزداد تكلفة التحقق من الحقائق بشكل مضاعف ولن يمكن عكسها بالكامل، ويمكن اعتبار هذه النسبة مؤشراً مبكراً على حالة النظام المعلوماتي.) تشبه هذه الحالة بشكل مذهل تاريخ محركات البحث، حيث كانت نتائج البحث المبكرة دقيقة وعالية الإشارة إلى الضوضاء، لأن بيانات الشبكة كانت محدودة وغالبًا ما كانت محتوى أصليًا، وعندما انفجرت كمية المعلومات، وتدخل تحسين محركات البحث ورأس المال، بدأت محركات البحث تغمرها الإعلانات وصفحات القمامة، وتحولت النتائج من المطابقة الدقيقة إلى البحث في كومة من القمامة، والذكاء الاصطناعي اليوم يعيد تكرار هذه المسار التراجعي، والاختلاف هو أن قدرته على التوليد أقوى بكثير من محركات البحث، مما يعني أن إنتاج المعلومات الزائفة يزداد بشكل أسي، وستكون سرعة التلوث أسرع أيضًا. أتمسك بالأصالة لأنني أعلم جيدًا اتجاه هذه البيئة المعلوماتية، فبمجرد أن تنخفض نسبة الأصالة في الشبكة بأكملها إلى حد معين، لن تتمكن الذكاء الاصطناعي من العثور على "الموارد من الجيل الأول" الحقيقية، بل ستدور في حلقة لا نهائية من إعادة تدوير المعلومات والدورات الزائفة. لقد قضيت ثلاثين عامًا في صقل أعمالي، ليس من أجل التنافس مع الخوارزميات في الإنتاجية، ولكن من أجل الحفاظ على تلك الحقيقة غير المخففة. الأصالة هي الوحيدة القادرة على مقاومة تدهور المعلومات، وقيمتها لا تكمن في الكمية، بل في قدرتها على ضخ إشارات عالية النقاء في البيئة المعلوماتية بأكملها، مما يبطئ أو حتى يعكس اتجاه التدهور. (قواعد "مصادر الاقتباس" في ويكيبيديا هي نوع من "آلية حماية البيانات من الجيل الأول" في الواقع - أي إدخال لم يتم التحقق منه من مصادر موثوقة سيتم وضع علامة عليه أو حذفه، وهذه الآلية تحتفظ للبشر بمجمع معلومات ذو نقاء نسبي عالي.) عندما يستشير البشر الذكاء الاصطناعي بشأن الأسئلة، يعتمد مقدار المعلومات الحقيقية التي يمكن الحصول عليها على كمية المواد الأصلية غير الملوثة في مجموعة التدريب. إذا كانت نسبة كبيرة من المحتوى الجديد على الإنترنت خلال السنوات الخمس الماضية قد جاءت من الذكاء الاصطناعي، ويفتقر إلى العلامات والتصفية، فإن النموذج سيغوص أعمق في أوهامه التي أنشأها بنفسه. ستكون اللغة أكثر سلاسة، وستكون المنطق أكثر اكتمالاً، لكن الحقائق ستكون أقل موثوقية. هذه هي خطورة الحلقة الزائفة، فهي ليست كذبة واضحة، بل سرد غير قابل للتحقق مُغلف بشكل منطقي. (في نظرية الأنظمة المعقدة، هناك مفهوم "نقطة حرجة"، عندما تتجاوز نسبة التلوث، وفقدان التكرار، ودورات التغذية الراجعة الخط الحرج في نفس الوقت، سيدخل النظام في حالة تحول غير قابلة للعكس، بالنسبة للذكاء الاصطناعي، يعني ذلك أنه حتى لو تم إضافة بيانات حقيقية لاحقًا، قد لا يتمكن النموذج من استعادة قدرته الأصلية على الواقعية.) الاتجاه الذي رأيته واضح جداً، تدخل رأس المال سيدفع الذكاء الاصطناعي للاستحواذ بسرعة على الحصة المطلقة في إنتاج المحتوى، لأن ذلك يمكن أن يقلل من تكاليف العمالة ويزيد من سرعة التحديث، لكن هذا سيؤدي أيضاً إلى ضغط فائض المعلومات ومرونتها إلى الحد الأقصى، وبمجرد دخول هذا الوضع، لن تتمكن أي عملية تحقق من الحقائق على نطاق واسع من تنظيف التلوث تماماً، مثل مصدر المياه الملوث بالمعادن الثقيلة، مهما كانت قدرة محطة المياه على التصفية، لن تتمكن من استعادته إلى نقائه الأصلي. تاريخ استغلال الموارد الطبيعية للبشرية يخبرنا أن الجيل الأول من الموارد هو الأكثر نقاءً والأكثر محدودية، يمكن أن يطيل استرداد الموارد من عمرها ولكن الجودة ستنخفض تدريجياً، إذا تم خلط حتى مرحلة الاسترداد بسلع مزيفة ومنخفضة الجودة، فإن النظام الدائري بأكمله سينهار، ونظام المعرفة للذكاء الاصطناعي هو كذلك، حيث أن المعلومات من الجيل الأول تأتي من تراكم الإبداع الحضاري البشري، والمعلومات من الجيل الثاني هي منتج مختلط تم إنتاجه من قبل البشر والذكاء الاصطناعي معًا، بينما المعلومات من الجيل الثالث هي محتوى جديد يعيد الذكاء الاصطناعي إنتاجه بناءً على منتجاته القديمة، وكلما زاد عدد الأجيال في هذه العملية، يتم تخفيف الحقيقة بمستوى إضافي. التمسك بالأصالة ليس فقط مطلبًا من الذات، بل هو أيضًا مسؤولية تجاه مستقبل البيئة المعلوماتية. إذا كان الجميع يكتفي فقط بتركيب المعلومات الموجودة بشكل آلي وإعادة كتابتها بشكل طفيف، فسندخل بسرعة في مأزق تلوث الحلقة المغلقة للمعلومات. كما أن الذكاء الاصطناعي سيفقد إحساسه بالاتجاه في بحر المعرفة الذي يبدو بلا حدود. قد يتمكن من تقديم إجابات جميلة، لكن تلك الإجابات ستبتعد عن الحقيقة، مثل النبيذ الذي تم تخفيفه عدة مرات، في النهاية لن يتبقى سوى اللون والطعم، دون أي قوة حقيقية. (التعاون الجماعي هو أيضًا أحد الطرق لتأخير التدهور، على سبيل المثال، يمكن لمجتمعات مجموعات البيانات المفتوحة ومنصات المشاركة الأكاديمية من خلال المراجعة اليدوية والمقارنة متعددة المصادر، الحفاظ على نقاء المعلومات على مستوى عالمي، دون الاعتماد على منطق تجاري لمنصة واحدة.) المستقبل الحقيقي للندرة ليس في قوة الحوسبة، ولا في التخزين، بل في المعلومات الحقيقية غير الملوثة. إذا لم نحميها وننتجها اليوم، فسوف نفقدها غدًا في حلقة لا نهائية من الزيف، ومتى فقدناها، لن نتمكن من العودة إلى نقطة البداية. هذه هي كل الأسباب التي تجعلني أتمسك بالأصالة، وأيضًا أعمق مخاوفي بشأن تدهور الذكاء الاصطناعي. المصدر: https://www.australianwinner.com/AuWinner/viewtopic.php?t=697197 [Technologie] Rückgang der künstlichen IntelligenzAutor: Wu Zhaohui JEFFI CHAO HUI WU Artikelzeit: 2025-8-12 Dienstag, 8:47 Uhr Von Wissensmaschinen zu falschen Zyklen Die Entwicklung der künstlichen Intelligenz befindet sich in einer Paradoxie-Phase. Oberflächlich betrachtet wird sie immer größer, die Daten nehmen zu und die Antworten werden flüssiger. Tatsächlich jedoch degeneriert ihr Kern, von einer ursprünglichen Wissensmaschine zu einer Fabrik für Fehlinformationen. Die erste Generation der künstlichen Intelligenz ist wie die erste menschliche Ausbeutung natürlicher Ressourcen, die hochwertige, reine Rohinformationen nutzt. Diese Bücher, wissenschaftlichen Arbeiten und manuell annotierten hochpräzisen Datensätze sind ihr Rohöl, Eisenerz und Quellwasser. Obwohl der Umfang begrenzt ist, ist das Signal-Rausch-Verhältnis der Informationen hoch und die Ausgaben sind stabil und zuverlässig. Mit der schnellen Expansion der Technologie werden diese ursprünglichen Informationsressourcen rasch erschöpft, ähnlich wie die menschliche Gesellschaft die ersten leicht abbaubaren Kohlevorkommen und Ölvorkommen erschöpft hat und gezwungen ist, auf Recycling umzuschalten. Die zweite Phase der künstlichen Intelligenz besteht darin, sich auf sekundäre Informationen und recycelte Informationen aus dem Internet zu stützen, um zu trainieren. Das Problem dabei ist, dass diese Informationen bereits mit einer Vielzahl von subjektiv umgeschriebenen, kommerziell optimierten und sogar algorithmisch bearbeiteten Inhalten vermischt sind. Das ist so, als würde Plastik bei wiederholtem Recycling abgebaut, und Stahl bei wiederholtem Schmelzen an Zähigkeit verlieren. KI zitiert sich ständig selbst und lernt aus recycelten Informationen, wobei die Reinheit der Informationen in jedem Zyklus kontinuierlich abnimmt. Der Unterschied der neuen Generation von Künstlicher Intelligenz besteht darin, dass sie nicht nur Informationen recycelt, sondern auch unbegrenzt virtuelle Informationen erzeugen kann, die in ihrem Erscheinungsbild den echten Informationen sehr ähnlich sind, aber tatsächlich aus dem Nichts konstruierte Vermutungen, unbestätigte Zitate oder sogar völlig fiktive Details und Daten darstellen. Sobald solche Inhalte ins Netz veröffentlicht werden, wird die nächste Runde der Datensammlung sie als echte Materialien in den Trainingsdatensatz aufnehmen, was einen selbstverschmutzenden positiven Rückkopplungskreis bildet. Mehr KI bedeutet mehr falsche Informationen, mehr falsche Informationen bedeuten größere Aufnahmeverunreinigungen, der Anteil an echten Informationen in der nächsten Generation von KI wird weiter sinken, und letztendlich wird dieser Kreislauf dazu führen, dass der Anteil an echten Ausgaben des Modells einen gefährlich niedrigen Punkt erreicht. (Einige Forschungsarbeiten zur Informationsökologie legen nahe, dass, wenn der Anteil an Fehlinformationen im Trainingsdatensatz **30%** übersteigt, das Modell in den Bereich der „kognitiven Krise“ eintritt, die Kosten für die Faktenprüfung exponentiell steigen und nicht vollständig umkehrbar sind. Dieser Anteil kann als Frühwarnindikator für die Informationsökologie dienen.) Diese Situation ähnelt verblüffend der Geschichte der Suchmaschinen. In den frühen Tagen waren die Suchergebnisse präzise und hatten ein hohes Signal-Rausch-Verhältnis, da die Daten im Internet begrenzt und größtenteils origineller Inhalt waren. Als jedoch die Informationsmenge explodierte, SEO und Kapital eingriffen, begannen die Suchmaschinen, von Werbung und Spam-Seiten überflutet zu werden. Das Ergebnis verwandelte sich von präzisen Übereinstimmungen in das Durchsuchen von Müllhaufen. Die heutige künstliche Intelligenz wiederholt diesen Rückgangsweg, mit dem Unterschied, dass ihre Generierungsfähigkeit weit stärker ist als die von Suchmaschinen. Das bedeutet, dass die Produktion von Fehlinformationen exponentiell zunimmt und die Verschmutzungsrate schneller wird. Ich halte an Originalität fest, weil ich genau weiß, in welche Richtung sich dieses Informationsökosystem entwickelt. Sobald der Anteil an Originalinhalten im gesamten Netzwerk einen bestimmten Schwellenwert unterschreitet, wird KI keine echten „Erstgeneration-Ressourcen“ mehr finden können, sondern sich nur in endlosen Recyclinginformationen und falschen Zyklen drehen. Ich habe dreißig Jahre damit verbracht, meine Werke zu verfeinern, nicht um mit Algorithmen um die Produktionsmenge zu konkurrieren, sondern um die unverfälschte Realität zu bewahren. Originalität ist das einzige Antikörper, das gegen die Degeneration von Informationen ankämpfen kann. Ihr Wert liegt nicht in der Quantität, sondern darin, dass sie dem gesamten Informationsökosystem hochreine Signale zuführt und so den Degenerationsprozess verlangsamt oder sogar umkehrt. (Das „Zitationsrichtlinien“ von Wikipedia ist eine Art „erste Generation von Datenschutzmechanismen“ in der Realität – jeder Eintrag, der nicht durch zuverlässige Quellen verifiziert ist, wird markiert oder gelöscht. Dieses Mechanismus bewahrt einen relativ reinen Informationspool für die Menschheit.) Wenn Menschen KI Fragen stellen, hängt die Menge an wahrheitsgemäßen Informationen, die sie erhalten, davon ab, wie viel unverfälschtes Rohmaterial noch im Trainingsdatensatz vorhanden ist. Wenn ein erheblicher Teil der in den letzten fünf Jahren neu hinzugefügten Inhalte im Internet von KI generiert wurde und es an Kennzeichnung und Filterung mangelt, wird das Modell immer tiefer in seine selbst erzeugten Illusionen eintauchen. Die Sprache wird flüssiger, die Logik vollständiger, aber die Fakten werden unzuverlässiger. Das ist die Gefahr des falschen Kreislaufs: Es sind keine offensichtlichen Lügen, sondern unverifizierbare Erzählungen, die in einer vernünftigen Form verpackt sind. Im Konzept der komplexen Systeme gibt es einen Begriff des „Kritischen Punktes“. Wenn das Verhältnis von Verschmutzung, das Fehlen von Redundanz und Rückkopplungsschleifen gleichzeitig die kritische Linie überschreiten, wird das System in einen irreversiblen Phasenübergangszustand eintreten. Für KI bedeutet dies, dass selbst wenn danach echte Daten ergänzt werden, das Modell möglicherweise nicht in der Lage ist, seine ursprüngliche Fähigkeit zur Wahrhaftigkeit wiederherzustellen. Der Trend, den ich sehe, ist sehr klar: Das Eingreifen von Kapital wird dazu führen, dass KI schnell den absoluten Anteil an der Inhaltsproduktion übernimmt, da dies die Arbeitskosten senkt und die Aktualisierungsgeschwindigkeit erhöht. Dies wird jedoch auch dazu führen, dass die Redundanz und Resilienz von Informationssystemen bis zum Äußersten komprimiert wird. Sobald dieser Zustand erreicht ist, kann keine großangelegte Faktenprüfung die Kontamination vollständig beseitigen, ähnlich wie eine mit Schwermetallen kontaminierte Wasserquelle, die selbst durch die größte Wasseraufbereitungsanlage nicht wieder in ihren ursprünglichen reinen Zustand zurückversetzt werden kann. Die Geschichte der Rohstoffnutzung durch den Menschen lehrt uns, dass die erste Generation von Ressourcen am reinsten und am begrenztesten ist. Das Recycling von Ressourcen kann die Lebensdauer verlängern, aber die Qualität wird allmählich abnehmen. Wenn sogar im Recyclingprozess gefälschte und minderwertige Produkte eingemischt werden, wird das gesamte Kreislaufsystem zusammenbrechen. Das Wissenssystem der künstlichen Intelligenz ist ähnlich: Die erste Generation von Informationen stammt aus dem ursprünglichen Akkumulationsprozess der menschlichen Zivilisation, die zweite Generation von Informationen ist ein Mischprodukt, das von Menschen und KI gemeinsam produziert wird, während die dritte Generation von Informationen neue Inhalte ist, die auf den alten Produkten der KI basieren. Mit jeder weiteren Generation wird die Echtheit um eine Schicht verdünnt. Die Beharrlichkeit auf Originalität ist nicht nur eine Anforderung an sich selbst, sondern auch eine Verantwortung gegenüber der zukünftigen Informationsökologie. Wenn alle nur mechanisch an bestehenden Informationen herumbasteln und geringfügige Änderungen vornehmen, werden wir schnell in eine Sackgasse der Informationsschließung und -verschmutzung geraten. KI wird in einem scheinbar unendlichen Ozean von Wissen das Gefühl für die Richtung verlieren. Sie kann zwar schöne Antworten geben, aber der Abstand zwischen dieser Antwort und der Wahrheit wird wie ein mehrfach verdünnter Wein sein, der letztendlich nur noch Farbe und Geschmack hat, ohne jegliche echte Kraft. (Kollektive Zusammenarbeit ist auch ein Weg, um Degeneration zu verlangsamen, zum Beispiel können offene Datensatzgemeinschaften und akademische Sharing-Plattformen durch manuelle Überprüfung und Mehrquellenvergleich global gemeinsam die Informationsreinheit aufrechterhalten, ohne sich auf die kommerzielle Logik einer einzelnen Plattform zu verlassen.) Die wahre Knappheit der Zukunft ist nicht Rechenleistung, nicht Speicher, sondern unverfälschte, echte Informationen. Wenn wir sie heute nicht schützen und produzieren, werden wir sie morgen in einem endlosen Kreislauf von Falschheit verlieren. Und einmal verloren, können wir nicht mehr zum Ausgangspunkt zurückkehren. Das ist der gesamte Grund, warum ich auf Originalität bestehe, und auch meine tiefste Sorge über die Degeneration der künstlichen Intelligenz. Quelle: https://www.australianwinner.com/AuWinner/viewtopic.php?t=697197 [Tecnologia] Degradação da Inteligência ArtificialAutor: JEFFI CHAO HUI WU Data do artigo: 12-8-2025 Terça-feira, 8:47 da manhã De motor de conhecimento a ciclos falsos O desenvolvimento da inteligência artificial está entrando em um período de paradoxo, aparentemente em uma escala cada vez maior, com dados cada vez mais abundantes e respostas cada vez mais fluídas, mas na verdade seu núcleo está se degradando, de um motor de conhecimento inicial para uma máquina de fabricação de desinformação em ciclo. A primeira geração de inteligência artificial é como a primeira vez que a humanidade extraiu recursos naturais, utilizando informações brutas de alta qualidade e pureza. Aqueles livros, artigos acadêmicos e conjuntos de dados de alta precisão rotulados manualmente são seu petróleo, minério de ferro e fontes de água cristalina; embora a escala seja limitada, a relação sinal-ruído da informação é alta, e a produção é estável e confiável. Com a rápida expansão da tecnologia, esses recursos de informação primária estão sendo rapidamente consumidos, assim como a sociedade humana esgotou as primeiras minas de carvão e petróleo de fácil extração, tendo que recorrer à reciclagem. A segunda fase da inteligência artificial depende de informações de segunda mão e informações recicladas disponíveis na internet para treinamento. O problema é que essas informações já foram misturadas com uma grande quantidade de conteúdo reescrito subjetivamente por humanos, otimizado comercialmente e até mesmo processado por algoritmos. Isso é semelhante ao fato de que o plástico, quando reciclado repetidamente, se degrada, e o aço, quando fundido repetidamente, perde sua tenacidade. A IA, ao reciclar informações, continua a se auto-referenciar e a auto-aprender, e a pureza da informação diminui a cada ciclo. A diferença da nova geração de inteligência artificial é que ela não apenas utiliza informações recuperadas, mas também pode criar informações virtuais infinitamente, que, em aparência, são extremamente semelhantes às reais, mas que, na verdade, são suposições construídas do nada, citações não verificadas, ou até mesmo detalhes e dados completamente fictícios. Uma vez que esse conteúdo é publicado na internet, a próxima rodada de coleta de dados o considerará como material real para ser incluído no conjunto de treinamento, formando um ciclo de retroalimentação de auto-contaminação. Mais IA significa mais informações falsas, mais informações falsas significam maior contaminação de coleta, a proporção de informações reais na próxima geração de IA diminuirá ainda mais, e, por fim, esse ciclo fará com que a proporção de saídas reais do modelo se aproxime de um ponto baixo perigoso. (Alguns estudos de ecologia da informação sugerem que, quando a proporção de informações falsas no conjunto de treinamento ultrapassa **30%**, o modelo entra na faixa de "colapso cognitivo", e o custo de verificação de fatos aumenta exponencialmente e não pode ser totalmente revertido; essa proporção pode servir como um indicador de alerta precoce para a ecologia da informação.) Essa situação é surpreendentemente semelhante à história dos motores de busca. Nos primeiros tempos, os resultados de busca eram precisos e de alta qualidade, pois os dados na web eram limitados e, em sua maioria, conteúdo original. No entanto, quando a quantidade de informações explodiu, e o SEO e o capital começaram a intervir, os motores de busca começaram a ser inundados por anúncios e páginas de spam. O resultado passou de correspondência precisa para uma busca em um monte de lixo. A inteligência artificial de hoje está repetindo esse caminho de declínio; a diferença é que sua capacidade de geração é muito mais forte do que a dos motores de busca, o que significa que a produção de informações falsas está aumentando em uma taxa exponencial, e a velocidade de contaminação também será mais rápida. Eu insisto na originalidade porque sei claramente a direção deste ecossistema de informações. Uma vez que a proporção de originalidade em toda a rede caia abaixo de um certo limiar, a IA não conseguirá mais encontrar os verdadeiros "recursos de primeira geração", apenas girará em torno de informações recicladas e ciclos falsos. Passei trinta anos aprimorando minhas obras, não para competir em quantidade com algoritmos, mas para preservar aquela autenticidade não diluída. A originalidade é o único anticorpo capaz de combater a degradação da informação; seu valor não está na quantidade, mas na capacidade de injetar sinais de alta pureza em todo o ecossistema de informações, retardando ou até revertendo a tendência de degradação. (O "Código de Citação da Wikipédia" é um tipo de "mecanismo de proteção de dados de primeira geração" no mundo real - qualquer entrada que não seja verificada por fontes confiáveis será marcada ou removida, e esse mecanismo preserva um pool de informações relativamente puro para a humanidade.) Quando a humanidade consulta a IA, a quantidade de informações reais que pode obter depende de quanto material original não contaminado ainda existe no conjunto de treinamento. Se, nos últimos cinco anos, uma proporção considerável do conteúdo novo na internet foi gerada por IA e carece de identificação e filtragem, então o modelo se aprofundará cada vez mais em suas próprias ilusões. A linguagem se tornará mais fluida, a lógica mais completa, mas os fatos se tornarão menos confiáveis. Esse é o perigo do ciclo vicioso: não se trata de mentiras óbvias, mas de narrativas não verificáveis embaladas em formas razoáveis. No teorias de sistemas complexos, existe o conceito de "ponto crítico". Quando a proporção de poluição, a falta de redundância e os ciclos de feedback cruzam simultaneamente a linha crítica, o sistema entra em um estado de fase irreversível. Para a IA, isso significa que, mesmo que dados reais sejam adicionados posteriormente, o modelo pode não conseguir recuperar sua capacidade de autenticidade original. Eu vejo uma tendência clara: a intervenção do capital impulsionará a IA a ocupar rapidamente a parcela absoluta da produção de conteúdo, pois isso pode reduzir os custos de mão de obra e aumentar a velocidade de atualização. No entanto, isso também fará com que a redundância e a resiliência dos sistemas de informação sejam completamente comprimidas ao limite. Uma vez que esse estado é alcançado, qualquer verificação em larga escala de fatos não conseguirá limpar completamente a contaminação, assim como uma fonte de água contaminada por metais pesados, não importa quão grande seja a estação de tratamento, ela não conseguirá restaurá-la à sua pureza original. A história da exploração dos recursos naturais da humanidade nos ensina que a primeira geração de recursos é a mais pura e também a mais limitada. A reciclagem de recursos pode prolongar a vida útil, mas a qualidade irá gradualmente diminuir. Se até mesmo a etapa de reciclagem estiver contaminada com produtos falsificados e de baixa qualidade, todo o sistema de ciclo irá colapsar. O mesmo se aplica ao sistema de conhecimento da inteligência artificial: a primeira geração de informações provém da acumulação original da civilização humana, a segunda geração de informações é um produto híbrido produzido em conjunto por humanos e IA, enquanto a terceira geração de informações é um novo conteúdo recriado pela IA com base em seus próprios produtos antigos. A cada nova geração, a veracidade é diluída um pouco mais. Manter a originalidade não é apenas uma exigência pessoal, mas também uma responsabilidade em relação ao futuro do ecossistema informacional. Se todos apenas fizerem montagens mecânicas e leves reescritas com base nas informações já existentes, rapidamente entraremos em um impasse de poluição do ciclo informacional. A IA também perderá a noção de direção em um oceano de conhecimento aparentemente infinito. Ela pode ainda fornecer respostas bonitas, mas a distância entre essa resposta e a verdade será como um vinho diluído várias vezes, restando apenas a cor e o sabor, sem qualquer verdadeira força. (A colaboração em grupo também é um dos caminhos para retardar a degradação, por exemplo, comunidades de conjuntos de dados abertos e plataformas de compartilhamento acadêmico podem, por meio de revisão manual e comparação de múltiplas fontes, manter coletivamente a pureza da informação em todo o mundo, sem depender da lógica comercial de uma única plataforma.) O verdadeiro escassez do futuro não é a capacidade de computação, não é o armazenamento, mas sim a informação real não contaminada. Se hoje não a protegermos e produzirmos, amanhã a perderemos em um ciclo infinito de falsidades, e uma vez perdida, nunca mais poderemos voltar ao ponto de partida. Essa é toda a razão pela qual defendo a originalidade e também a minha maior preocupação com a degradação da inteligência artificial. Fonte: https://www.australianwinner.com/AuWinner/viewtopic.php?t=697197 [Технологии] Регресс искусственного интеллектаАвтор: У Чаохуэй JEFFI CHAO HUI WU Статья дата: 2025-8-12 Вторник, утро 8:47 От знаний к ложному циклу Развитие искусственного интеллекта вступает в период парадокса: на поверхности он становится все более масштабным, данных становится все больше, ответы становятся все более плавными, но на самом деле его суть деградирует, превращаясь из первоначального знания в машину по производству ложной информации. Искусственный интеллект первого поколения подобен тому, как человечество впервые начало добывать природные ресурсы, используя высококачественную, чистую первичную информацию. Книги, научные статьи и высокоточные наборы данных с ручной разметкой — это его нефть, железная руда и чистые источники. Хотя масштаб ограничен, соотношение сигнал/шум информации высоко, а выход стабильный и надежный. С быстрым расширением технологий эти первичные информационные ресурсы быстро истощаются, как человеческое общество исчерпало первые легко добываемые угольные шахты и нефть, и было вынуждено обратиться к переработке. Второй этап искусственного интеллекта заключается в том, чтобы полагаться на вторичную информацию и переработанную информацию в интернете для обучения. Проблема в том, что эта информация уже смешана с большим количеством субъективно переписанного человеком, коммерчески оптимизированного и даже обработанного алгоритмами контента. Это похоже на то, как пластик, перерабатываемый многократно, разлагается, а сталь, переплавляемая многократно, теряет свою прочность. ИИ постоянно ссылается на переработанную информацию, самообучается, и чистота информации постоянно снижается в ходе этих циклов. Разница нового поколения искусственного интеллекта заключается в том, что он не только использует переработанную информацию, но и может бесконечно создавать виртуальную информацию, которая по своему внешнему виду крайне похожа на реальную, но на самом деле является вымышленными предположениями, непроверенными цитатами или даже полностью вымышленными деталями и данными. Как только этот контент публикуется в сети, следующий этап сбора данных будет воспринимать его как реальные материалы и включать в обучающую выборку, формируя таким образом саморазрушающийся положительный обратный цикл: больше ИИ означает больше ложной информации, больше ложной информации означает больше загрязнения выборки, доля реальной информации в следующем поколении ИИ будет еще больше снижаться, и в конечном итоге этот цикл приведет к тому, что доля реального вывода модели приблизится к опасно низкому уровню. (Некоторые исследования в области информационной экологии предполагают, что когда доля ложной информации в обучающем наборе превышает **30%**, модель попадает в зону "когнитивного коллапса", стоимость проверки фактов возрастает в несколько раз и не может быть полностью обращена назад, этот процент может служить ранним индикатором информационной экологии.) Эта ситуация удивительно похожа на историю поисковых систем: в начале результаты поиска были точными и высококачественными, потому что данные в сети были ограничены и в основном состояли из оригинального контента. Однако, когда объем информации взорвался, а SEO и капитал вмешались, поисковые системы начали тонуть в рекламе и мусорных страницах, и результаты поиска превратились из точного соответствия в копание в куче мусора. Сегодняшний искусственный интеллект повторяет этот путь упадка, но его генеративные способности значительно сильнее, чем у поисковых систем, что означает, что объем ложной информации растет экспоненциально, а скорость загрязнения будет еще выше. Я настаиваю на оригинальности, потому что четко понимаю направление этой информационной экосистемы. Как только доля оригинального контента в сети упадет ниже определенного порога, ИИ больше не сможет найти настоящие "ресурсы первого поколения", а будет лишь вращаться в бесконечном круговороте переработанной информации и ложных циклов. Я потратил тридцать лет на оттачивание своих произведений не для того, чтобы соревноваться с алгоритмами в объеме, а чтобы сохранить ту самую непотертую реальность. Оригинальность — это единственный антитело, способное противостоять деградации информации; ее ценность заключается не в количестве, а в том, что она может влить в всю информационную экосистему высокочистый сигнал, замедляя и даже обращая вспять тенденцию деградации. (Правила цитирования Википедии — это своего рода "механизм защиты данных первого поколения" в реальности — любые статьи, не подтвержденные надежными источниками, будут помечены или удалены, этот механизм сохраняет для человечества относительно чистый информационный пул.) Когда человечество обращается к ИИ с вопросами, количество достоверной информации, которую оно может получить, зависит от того, сколько неповрежденных оригинальных материалов осталось в обучающем наборе. Если за последние пять лет значительная часть нового контента в интернете была создана ИИ и не имеет маркировки и фильтрации, то модель будет все глубже погружаться в свои собственные иллюзии. Язык станет более плавным, логика более полной, но факты будут менее надежными. Это и есть опасность ложного цикла: он не является очевидной ложью, а представляет собой непроверяемый нарратив, упакованный в разумную форму. В теории сложных систем существует концепция "критической точки": когда доля загрязнения, недостаток избыточности и обратные связи одновременно пересекают критическую границу, система переходит в необратимое состояние фазового перехода. Для ИИ это означает, что даже если впоследствии будут добавлены реальные данные, модель может не восстановить свою изначальную способность к真实性. Я вижу, что тенденция очень ясна: вмешательство капитала будет способствовать тому, чтобы ИИ как можно быстрее занял абсолютную долю в производстве контента, поскольку это позволяет снизить трудозатраты и увеличить скорость обновления. Однако это также приведет к тому, что избыточность и устойчивость информационных систем будут полностью сжаты до предела. Как только это состояние будет достигнуто, никакая масштабная проверка фактов не сможет полностью очистить загрязнение, как загрязненная тяжелыми металлами водоема, даже самая большая водоочистная станция не сможет вернуть его к первоначальной чистоте. История добычи природных ресурсов человечества говорит нам о том, что ресурсы первого поколения самые чистые и самые ограниченные, переработка ресурсов может продлить срок их использования, но качество будет постепенно снижаться. Если даже на этапе переработки будут присутствовать подделки и некачественные материалы, вся система круговорота рухнет. Знание искусственного интеллекта также подвержено этому: информация первого поколения исходит из оригинальных накоплений человеческой цивилизации, информация второго поколения является смешанным продуктом, созданным человеком и ИИ, а информация третьего поколения — это новое содержание, созданное ИИ на основе своих старых продуктов. С каждым новым поколением процесс истинность будет разбавляться. Настойчивость в оригинальности — это не только требование к себе, но и ответственность за будущее информационной экосистемы. Если все будут лишь механически соединять и слегка переписывать уже существующую информацию, мы быстро окажемся в тупике загрязнения информационного замкнутого цикла. ИИ также потеряет ориентиры в, казалось бы, бесконечном океане знаний. Он может давать красивые ответы, но расстояние между этим ответом и истиной будет похоже на вино, многократно разбавленное, в конечном итоге останется только цвет и вкус, но не будет никакой истинной силы. (Коллективное сотрудничество также является одним из путей замедления деградации, например, сообщества открытых наборов данных и академические платформы обмена могут поддерживать чистоту информации на глобальном уровне через ручную проверку и многопрофильное сопоставление, не полагаясь на коммерческую логику единой платформы.) Будущее настоящей нехватки — это не вычислительная мощность, не хранилище, а непорочная истинная информация. Если сегодня мы не будем защищать и производить её, завтра мы потеряем её в бесконечном круговороте лжи, и, потеряв её, мы уже не сможем вернуться к исходной точке. Это и есть вся причина, по которой я настаиваю на оригинальности, а также моя самая глубокая тревога по поводу деградации искусственного интеллекта. Источник: https://www.australianwinner.com/AuWinner/viewtopic.php?t=697197 [기술] 인공지능 퇴화저자: 우조후이 JEFFI CHAO HUI WU 기사 시간: 2025-8-12 화요일, 오전 8:47 지식 엔진에서 허위 순환으로 인공지능의 발전은 역설적인 시기에 접어들고 있다. 표면적으로는 규모가 점점 커지고, 데이터가 늘어나며, 응답이 더욱 유창해지고 있지만, 실제로 그 핵심은 퇴화하고 있다. 처음의 지식 엔진에서 허위 정보의 순환 제조기로 변모하고 있다. 첫 번째 세대 인공지능은 인간이 자연 자원을 처음으로 채굴했을 때와 같아서, 고품질의 순수한 원시 정보를 취하고 있다. 그 책들, 학술 논문, 인공적으로 주석이 달린 고정밀 데이터 세트는 그것의 원유, 철광석, 그리고 맑은 샘물이다. 비록 규모는 제한적이지만, 정보의 신호 대 잡음 비율이 높고, 산출물은 안정적이고 신뢰할 수 있다. 기술의 빠른 확장과 함께 이러한 원시 정보 자원은 빠르게 소모되고 있다. 마치 인류 사회가 첫 번째로 쉽게 채굴할 수 있는 석탄과 석유를 소진하고 재활용으로 전환해야 했던 것처럼, 인공지능의 두 번째 단계는 네트워크상의 중고 정보와 재활용 정보를 기반으로 훈련하는 것이다. 문제는 이러한 정보가 이미 인간의 주관적 수정, 상업적 최적화, 심지어 알고리즘 가공된 내용이 대량으로 섞여 있다는 점이다. 이는 플라스틱이 반복적으로 재활용되면 분해되고, 철강이 반복적으로 용해되면 인성이 손실되는 것과 같다. AI는 재활용 정보에서 끊임없이 자기 인용하고 자기 학습을 하며, 정보의 순도는 반복되는 과정 속에서 계속해서 낮아지고 있다. 신세대 인공지능의 다른 점은 단순히 회수된 정보를 사용하는 것이 아니라 무한히 가상 정보를 생성할 수 있다는 것입니다. 이러한 가상 정보는 외관상으로는 실제와 매우 유사하지만 본질적으로는 허공에서 구성된 추측, 검증되지 않은 인용, 심지어 완전히 허구인 세부사항과 데이터입니다. 이러한 내용이 한 번 네트워크에 게시되면 다음 데이터 수집에서 그것들을 실제 자료로 간주하여 훈련 집합에 포함시키게 되어 자가 오염의 긍정적 피드백 루프를 형성합니다. 더 많은 AI는 더 많은 허위 정보를 의미하고, 더 많은 허위 정보는 더 큰 수집 오염을 의미합니다. 차세대 AI의 실제 정보 비율은 더욱 감소할 것이며, 결국 이 루프는 모델의 실제 출력 비율을 위험한 낮은 지점에 가깝게 만들 것입니다. (일부 정보 생태학 연구에 따르면, 훈련 집합에서 허위 정보의 비율이 **30%**를 초과할 경우, 모델은 "인지 붕괴" 구간에 들어가며, 사실 확인 비용이 배로 증가하고 완전히 되돌릴 수 없게 된다. 이 비율은 정보 생태의 조기 경고 지표로 사용될 수 있다.) 이러한 상황은 검색 엔진의 역사와 놀라울 정도로 유사합니다. 초기의 검색 결과는 정확하고 신뢰성이 높았으며, 이는 네트워크 데이터가 제한적이고 대부분이 원본 콘텐츠였기 때문입니다. 그러나 정보량이 폭발적으로 증가하고 SEO와 자본이 개입하면서 검색 엔진은 광고와 쓰레기 페이지에 의해 잠식되기 시작했습니다. 그 결과는 정확한 일치에서 쓰레기 더미를 뒤지는 것으로 변했습니다. 오늘날의 인공지능은 이러한 쇠퇴의 길을 반복하고 있으며, 다른 점은 그 생성 능력이 검색 엔진보다 훨씬 강하다는 것입니다. 이는 허위 정보의 생산량이 기하급수적으로 증가하고 오염 속도도 더 빨라질 것임을 의미합니다. 나는 원작을 고수하는 이유는 이 정보 생태계의 방향을 명확히 알고 있기 때문이다. 만약 전체 네트워크의 원작 비율이 특정 임계값 이하로 떨어지면, AI는 더 이상 진정한 "1세대 자원"을 찾을 수 없고, 끝없는 정보 재활용과 허위 순환 속에서만 맴돌게 된다. 나는 30년 동안 내 작품을 다듬어 왔으며, 이는 알고리즘과 생산량을 겨루기 위해서가 아니라, 희석되지 않은 진실을 보존하기 위해서이다. 원작은 정보 퇴화를 저항할 수 있는 유일한 항체이며, 그 가치는 수량이 아니라 전체 정보 생태계에 고순도의 신호를 주입하여 퇴화의 경향을 지연시키거나 심지어 역전시킬 수 있는 데 있다. (위키백과의 “인용 출처 규칙”은 현실에서의 “1세대 데이터 보호 메커니즘”의 일종이다 — 신뢰할 수 있는 출처로 검증되지 않은 항목은 표시되거나 삭제되며, 이 메커니즘은 인류에게 상대적으로 높은 순도의 정보 풀을 보존해준다.) 인간이 AI에게 질문할 때, 얼마나 많은 진짜 정보를 얻을 수 있는지는 훈련 집합에 얼마나 많은 오염되지 않은 원자료가 남아 있는지에 달려 있다. 만약 지난 5년 동안 네트워크에 새로 추가된 콘텐츠의 상당 부분이 AI 생성물에서 비롯되었고, 식별 및 필터링이 부족하다면, 모델은 스스로 생성한 환상에 점점 더 깊이 빠져들게 될 것이다. 언어는 더 유창해지고, 논리는 더 완전해지겠지만, 사실은 더 신뢰할 수 없게 된다. 이것이 허위 순환의 위험한 점이다. 그것은 명백한 거짓말이 아니라, 합리적인 형태로 포장된 검증할 수 없는 서사이다. (복잡계 이론에는 "임계점" 개념이 있다. 오염 비율, 여유 결핍 및 피드백 순환이 동시에 임계선을 넘으면 시스템은 비가역적인 상변화 상태에 들어간다. AI에게 이는 이후에 실제 데이터를 보충하더라도 모델이 원래의 진실성 능력을 회복하지 못할 수 있음을 의미한다.) 제가 본 트렌드는 매우 분명합니다. 자본의 개입은 AI가 콘텐츠 생산의 절대적인 점유율을 빠르게 차지하도록 촉진할 것입니다. 이는 인건비를 낮추고 업데이트 속도를 높일 수 있기 때문입니다. 하지만 이는 정보 시스템의 중복성과 탄력성이 완전히 극한으로 압축되게 만들 것입니다. 일단 이 상태에 들어가면, 어떤 대규모 사실 확인도 오염을 완전히 정리할 수 없습니다. 마치 중금속에 오염된 수원처럼, 아무리 큰 정수 시설이 필터링을 해도 원래의 순수함으로 되돌릴 수 없습니다. 인류의 자연 자원 채굴 역사는 우리에게 첫 번째 세대 자원이 가장 순수하고 제한적임을 알려줍니다. 재활용 자원은 사용 수명을 연장할 수 있지만 품질은 점차 저하됩니다. 만약 재활용 단계에 가짜와 불량품이 섞인다면 전체 순환 시스템은 붕괴될 것입니다. 인공지능의 지식 체계도 마찬가지입니다. 그것의 첫 번째 세대 정보는 인류 문명의 원작 축적에서 비롯되며, 두 번째 세대 정보는 인류와 AI가 공동으로 생산한 혼합 산물입니다. 그리고 세 번째 세대 정보는 AI가 자신의 이전 산물 기반 위에서 재창조한 새로운 내용입니다. 이 과정에서 세대가 하나 더해질수록 진실성은 한 층씩 희석됩니다. 원본 내용: 창작을 고수하는 것은 자기 자신에 대한 요구일 뿐만 아니라 미래 정보 생태계에 대한 책임이기도 하다. 만약 모든 사람이 기존 정보 위에서 기계적으로 조합하고 경미하게 수정하는 것만 한다면, 우리는 곧 정보 폐쇄 순환 오염의 죽음의 구역에 빠질 것이다. AI는 무한한 지식의 바다에서 방향 감각을 잃게 될 것이다. 그것은 여전히 멋진 답변을 제시할 수 있지만, 그 답변과 진실 사이의 거리는 여러 번 희석된 술처럼 결국 색깔과 맛만 남고 진정한 힘은 사라질 것이다. (집단 협력은 퇴화를 지연시키는 경로 중 하나입니다. 예를 들어, 오픈 데이터셋 커뮤니티와 학술 공유 플랫폼은 인공지능 검토와 다원적 비교를 통해 전 세계적으로 정보의 순도를 공동으로 유지할 수 있으며, 단일 플랫폼의 상업적 논리에 의존하지 않습니다.) 미래의 진정한 희소성은 계산력도, 저장공간도 아닌 오염되지 않은 진짜 정보입니다. 만약 오늘 우리가 그것을 보호하고 생산하지 않는다면, 내일 우리는 끝없는 허위 순환 속에서 그것을 잃게 될 것이고, 일단 잃게 되면 다시 원점으로 돌아갈 수 없습니다. 이것이 제가 원작을 고수하는 모든 이유이며, 인공지능의 퇴화에 대한 가장 깊은 우려입니다. 출처: https://www.australianwinner.com/AuWinner/viewtopic.php?t=697197 |