Plurality Book 3-3 The Lost Dao
public.icon
(D)ecisions about the development and exploitation of computer technology must be made not only "in the public interest" but in the interest of giving the public itself the means to enter into the decision-making processes that will shape their future. — J. C. R. Licklider, "Computers and Government", 1980^CandG ^CandG: J.C.R. Licklider, "Computers and Government" in Michael L. Dertouzos and Joel Moses eds., _The Computer Age: A Twenty-Year View_ (Cambridge, MA: MIT Press, 1980) ---
Can a ⿻ understanding of society lay the foundation for social transformations as dramatic as those that fields like quantum mechanics and ecology have brought to natural sciences, physical technology and our relationship to nature? Liberal democracies often celebrate themselves as pluralistic societies, which would seem to indicate they have already drawn the available lessons from ⿻ social science. Yet despite this formal commitment to pluralism and democracy, almost every country has been forced by the limits of available information systems to homogenize and simplify social institutions in a monist atomist mold that runs into direct conflict with such values. The great hope of ⿻ social science and ⿻ built on top of it is to use the potential of information technology to begin to overcome these limitations.
社会に対する⿻的な理解は、量子力学や生態学といった分野が自然科学、物理技術、そして自然との関係にもたらしたような劇的な社会変革の基礎となりうるだろうか?リベラル民主主義は自らを多元的な社会として祝福することが多く、これは⿻的な社会科学から得られる教訓をすでに汲み取っているかのように見える。しかし、多元主義と民主主義へのこうした形式的な傾倒にもかかわらず、ほとんどすべての国が、利用可能な情報システムの限界によって、社会制度を単一的で原子論的な型に均質化・単純化することを余儀なくされており、これはそうした価値観と直接的な対立を引き起こしている。⿻的な社会科学とその上に構築された⿻の大きな希望は、情報技術の可能性を活用してこれらの限界を克服し始めることにある。
### ⿻ launches
This was the mission pursued by the younger generation that followed in Wiener's lead but had a more human/social scientific background. This generation included a range of pioneers of applied cybernetics such as the anthropologist Margaret Mead^Surround (who heavily influenced the aesthetics of the internet), W. Edwards Deming^Deming (whose influence on Japanese and to a lesser extent Taiwanese inclusive industrial quality practices we saw above) and Stafford Beer(https://profilebooks.com/work/the-unaccountability-machine/)[^Davies] (who pioneered business cybernetics and has become something of a guru for social applications of Wiener's ideas including in Chile's brief cybernetic socialist regime of the early 1970s). They built on his vision in a more pragmatic mode, shaping technologies that defined the information era. Yet the most ambitious and systemic impact of this work was heralded by a blip moving across the sky in October 1957, a story masterfully narrated by M. Mitchell Waldrop in his _The Dream Machine_, from which much of what follows derives.^DreamMachine これは、ウィーナーの先導に続く若い世代が追求したミッションであり、彼らはより人文・社会科学的な背景を持っていた。この世代には、応用サイバネティクスのパイオニアたちが含まれていた。例えば、人類学者のマーガレット・ミード(インターネットの美学に大きな影響を与えた)、W・エドワーズ・デミング(先に見た日本、そしてより小規模ながら台湾の包括的な産業品質実践に影響を与えた)、そしてスタッフォード・ビア(ビジネスサイバネティクスを開拓し、1970年代初頭のチリの短命なサイバネティック社会主義体制を含め、ウィーナーのアイデアの社会的応用におけるグルのような存在となった)などである。彼らは、より実践的な方法でウィーナーのビジョンを発展させ、情報時代を定義づける技術を形作った。しかし、この取り組みの最も野心的かつ体系的な影響は、1957年10月に空を横切った一つの光点によって予告された。この物語は、M・ミッチェル・ウォルドロップが著書『ドリーム・マシン』で見事に語っており、以下の内容の多くはこれに基づいている。
^Surround: Fred Turner, _The Democratic Surround: Multimedia and American Liberalism from World War II to the Psychedelic Sixties_ (Chicago: University of Chicago Press, 2013). ^Deming: While we do not have space to pursue Deming's or Mead's stories in anything like the depth we do the development of the internet, in many ways the work of these two pioneers parallels many of the themes we develop and in the industiral and cultural spheres laid the groundwork for ⿻ just as Licklider and his disciples did in computation. UTHSC. “Deming’s 14 Points,” May 26, 2022. https://www.uthsc.edu/its/business-productivity-solutions/lean-uthsc/deming.php. ^Davies: Dan Davies, _The Unaccountability Machine: Why Big Systems Make Terrible Decisions - and How The World Lost its Mind_ (London: Profile Books, 2024). ^DreamMachine: M. Mitchell Waldrop, _The Dream Machine_ (New York: Penguin, 2002). #### Sputnik and the Advanced Research Projects Agency
The launch by the Soviet Union of the first orbital satellite was followed a month later by the Gaither Committee report, claiming that the US had fallen behind the Soviets in missile production. The ensuing moral panic forced the Eisenhower administration into emergency action to reassure the public of American strategic superiority. Yet despite, or perhaps because of, his own martial background, Eisenhower deeply distrusted what he labeled America's "military industrial complex", while having boundless admiration for scientists.^Wizards He thus aimed to channel the passions of the Cold War into a national strategy to improve scientific research and education.^Sputnik’sImpact ^Wizards: Katie Hafner and Matthew Lyon, _Where the Wizards Stay up Late: The Origins of the Internet_ (New York: Simon & Schuster, 1998). While that strategy had many prongs, a central one was the establishment, within the Department of Defense, of a quasi-independent, scientifically administered Advanced Research Projects Agency (ARPA) that would harness expertise from universities to accelerate ambitious and potentially transformative scientific projects with potential defense applications.
While ARPA began with many aims, some of which were soon assigned to other newly formed agencies, such as the National Aeronautics and Space Administration (NASA), it quickly found a niche as the most ambitious government supporter of ambitious and "far out" projects under its second director, Jack Ruina. One area was to prove particularly representative of this risk-taking style: the Information Processing Techniques Office led by Joseph Carl Robnett (JCR) Licklider.
Licklider hailed from a different field still from the political economy of George, sociology of Simmel, political philosophy of Dewey and mathematics of Wiener: "Lick", as he was commonly known, received his PhD in 1942 in the field of psychoacoustics. After spending his early career developing applications to human performance in high-stakes interactions with technology (especially aviation), his attention increasingly turned to the possibility of human interaction with the fastest growing form of machinery: the "computing machine". He joined the Massachusetts Institute of Technology (MIT) to help found Lincoln Laboratory and the psychology program. He moved to the private sector as Vice President of Bolt, Beranek and Newman (BBN), one of the first MIT-spin off research start-ups.
Having persuaded BBN's leadership to shift their attention towards computing devices, Lick began to develop an alternative technological vision to the then-emerging field of Artificial Intelligence that drew on his psychological background to propose "Man-Computer Symbiosis", as his path-breaking 1960 paper was titled. Lick hypothesized that while "in due course...'machines' will outdo the human brain in most of the functions we now consider exclusively within its province...(t)here will...be a fairly long interim during which the main advances will be made by men and computers working together...those years should be intellectually the most creative and exciting in the history of mankind."^ManComputerSymbiosis These visions turned out to arrive at precisely the right moment for ARPA, as it was in search of bold missions with which it could secure its place in the rapidly coalescing national science administration landscape. Ruina appointed Lick to lead the newly-formed Information Processing Techniques Office (IPTO). Lick harnessed the opportunity to build and shape much of the structure of what became the field of Computer Science.
スプートニクとARPA(高等研究計画局)
ソビエト連邦による最初の軌道衛星の打ち上げの1ヶ月後、ゲイザー委員会の報告書が発表され、米国はミサイル生産においてソ連に遅れを取っているという指摘がなされた。これに続く道徳的パニックにより、アイゼンハワー政権はアメリカの戦略的優位性を国民に再保証するため、緊急の行動を取ることを余儀なくされた。しかし、アイゼンハワーは自身の軍事的背景があったにもかかわらず、あるいはそれゆえに、彼が「軍産複合体」と呼んだものを深く不信感を抱いており、一方で科学者たちには限りない賞賛を持っていた。そのため、彼は冷戦の情熱を、科学研究と教育を改善するための国家戦略へと導こうとした。
その戦略には多くの要素があったが、中心となったのは国防総省内に、準独立的で科学者が運営するARPA(高等研究計画局)を設立することだった。ARPAは、大学からの専門知識を活用して、防衛応用の可能性がある野心的で革新的な科学プロジェクトを加速させることを目的としていた。
ARPAは当初、多くの目標を持っていたが、その一部はすぐに航空宇宙局(NASA)などの新しく設立された機関に移管された。しかし、2代目のディレクターであるジャック・ルイナの下で、ARPAは野心的で「突飛な」プロジェクトを支援する政府機関として独自の地位を確立した。このリスクを取る姿勢を最もよく表していた分野の一つが、ジョセフ・カール・ロブネット(JCR)リックライダーが率いた情報処理技術室だった。
リックライダー(通称「リック」として知られる)は、ジョージの政治経済学、ジンメルの社会学、デューイの政治哲学、そしてウィーナーの数学とはまた異なる分野の出身でした。彼は1942年に精神音響学の分野で博士号を取得しました。キャリアの初期には、技術との関わりにおける人間のパフォーマンス(特に航空分野)の応用開発に従事していましたが、次第に彼の関心は、最も急速に成長していた機械の形態である「コンピューティング・マシン」との人間の相互作用の可能性へと向かっていきました。彼はマサチューセッツ工科大学(MIT)に加わり、リンカーン研究所と心理学プログラムの設立を支援しました。その後、最初のMITのスピンオフ研究スタートアップの一つであるボルト・ベラネック・アンド・ニューマン(BBN)の副社長として民間企業に移りました。
BBNの指導部にコンピューティング機器への注目を促すことに成功した後、リックは当時台頭しつつあった人工知能分野に対する代替的な技術ビジョンを発展させ始めました。それは、彼の心理学的背景を活かし、1960年の画期的な論文「人間とコンピュータの共生」として発表されました。リックは「いずれ『機械』は、現在我々が人間の脳に独占的に属すると考えているほとんどの機能において人間の脳を凌駕するだろう」と仮定しつつ、「人間とコンピュータが共に働くことで主要な進歩が達成される比較的長い過渡期があるだろう...それらの年月は、人類の歴史の中で知的に最も創造的で刺激的なものとなるはずだ」と述べました。
これらのビジョンは、急速に形成されつつあった国家科学行政の分野で自らの地位を確保しようとしていたARPAにとって、まさに適切なタイミングで現れました。ルイナは、新たに設立された情報処理技術室(IPTO)のトップにリックを任命しました。リックはこの機会を活用して、後にコンピュータサイエンスという分野となるものの多くの構造を構築し、形作っていきました。
The Intergalactic Computer Network
While Lick spent only two years at ARPA, they laid the groundwork for much of what followed in the next forty years of the field. He seeded a network of "time sharing" projects around the US that would enable several individual users to directly interact with previously monolithic large-scale computing machines, taking a first step towards the age of personal computing. The five universities thus supported (Stanford, MIT, UC Berkeley, UCLA and Carnegie Mellon) went on to become the core of the academic emerging field of computer science.
Beyond establishing the computational and scientific backbone of modern computing, Lick was particularly focused on the "human factors" in which he specialized. He aimed to make the network represent these ambitions in two ways that paralleled the social and personal aspects of humanity. On the one hand, he gave particular attention and support to projects he believed could bring computing closer to the lives of more people, integrating with the functioning of human minds. The leading example of this was the Augmentation Research Center established by Douglas Engelbart at Stanford.^DouglasEngelbart On the other hand, he dubbed the network of collaboration between these hubs, with his usual tongue-in-cheek, the "Intergalactic Computer Network(https://worrydream.com/refs/Licklider_1963_-_Members_and_Affiliates_of_the_Intergalactic_Computer_Network.pdf)", and hoped it would provide a model of computer-mediated collaboration and co-governance.^Memo This project bore fruit in a variety of ways, both immediately and longer-term. Engelbart quickly invented many foundational elements of personal computing, including the mouse, a bitmapped screen that was a core precursor to the graphical user interface and hypertext; his demonstration of this work, six short years after Lick's initial funding, as the "oNLine system" (NLS) is remembered as "the mother of all demos(https://www.youtube.com/watch?v=yJDv-zdhzMY)" and a defining moment in the development of personal computers.^FirstDemo This in turn helped persuade Xerox Corporation to establish their Palo Alto Research Center (PARC), which went on to pioneer much of personal computing. US News and World Report(https://www.usnews.com/best-colleges/rankings/computer-science-overall) lists four of the five departments Lick funded as the top four computer science departments in the country.^USNews Most importantly, after Lick's departure to the private sector, the Intergalactic Computer Network developed into something less fanciful and more profound under the leadership of his collaborator, Robert W. Taylor. 銀河系間コンピュータネットワーク
リックはARPAでわずか2年間しか在籍しませんでしたが、それは、その後40年にわたる分野の発展の基礎を築くものでした。彼は米国各地に「タイムシェアリング」プロジェクトのネットワークを展開し、それまで一枚岩的だった大規模コンピュータ機器に複数のユーザーが直接対話できるようにすることで、パーソナルコンピューティングの時代への第一歩を踏み出しました。このように支援を受けた5つの大学(スタンフォード、MIT、UCバークレー、UCLA、カーネギーメロン)は、その後コンピュータサイエンスという新興分野の学術的中核となっていきました。
現代のコンピューティングの計算的・科学的基盤を確立することに加えて、リックは特に自身が専門とする「人的要因」に焦点を当てていました。彼は、人間性の社会的側面と個人的側面に呼応する2つの方法で、ネットワークにこれらの野心を反映させることを目指しました。一方では、より多くの人々の生活にコンピューティングを近づけ、人間の思考と統合できると考えられるプロジェクトに特別な注意と支援を与えました。その代表例が、スタンフォードのダグラス・エンゲルバートによって設立された拡張研究センターでした。他方では、彼はいつもの冗談めかした調子で、これらの拠点間の協力ネットワークを「銀河系間コンピュータネットワーク」と名付け、コンピュータを介した協力と共同統治のモデルとなることを期待しました。
このプロジェクトは、即座に、そして長期的に様々な形で実を結びました。エンゲルバートはすぐに、マウス、グラフィカルユーザーインターフェースの重要な前身となったビットマップスクリーン、そしてハイパーテキストなど、パーソナルコンピューティングの基礎となる多くの要素を発明しました。リックの最初の資金提供からわずか6年後、エンゲルバートによる「オンラインシステム」(NLS)のこの成果のデモンストレーションは、「すべてのデモの母」として記憶され、パーソナルコンピュータ開発の画期的な瞬間となりました。これはさらに、ゼロックス社にパロアルト研究所(PARC)の設立を決意させることにつながり、そこでパーソナルコンピューティングの多くが開拓されることとなりました。USニュース・アンド・ワールド・レポートは、リックが資金を提供した5つの学部のうち4つを、国内のコンピュータサイエンス学部のトップ4にランク付けしています。最も重要なことは、リックが民間部門に移った後、銀河系間コンピュータネットワークが、彼の協力者であるロバート・W・テイラーの指導の下で、空想的なものからより深遠なものへと発展していったことです。
A network of networks
Taylor and Lick were naturally colleagues. While Taylor never completed his PhD, his research field was also psychoacoustics and he served as Lick's counterpart at NASA, which had just split from ARPA, during Lick's leadership at IPTO. Shortly following Lick's departure (in 1965), Taylor moved to IPTO to help develop Lick's networking vision under the leadership of Ivan Sutherland, who then returned to academia, leaving Taylor in charge of IPTO and the network that he more modestly labeled the ARPANET. He used his authority to commission Lick's former home of BBN to build the first working prototype of the ARPANET backbone. With momentum growing through Engelbart's demonstration of personal computing and ARPANET's first successful trials, Lick and Taylor articulated their vision for the future possibilities of personal and social computing in their 1968 article "The Computer as a Communication Device(https://moodlearchive.epfl.ch/2021-2022/pluginfile.php/2704820/mod_resource/content/3/LickliderApr68.pdf)", describing much of what would become the culture of personal computing, internet and even smartphones several decades later.^Communication ^Communication: J.C.R. Licklider and Robert Taylor, "The Computer as a Communication Device" _Science and Technology_ 76, no. 2 (1967): 1-3. By 1969, Taylor felt the mission of the ARPANET was on track to success and moved on to Xerox PARC, where he led the Computer Science Laboratory in developing much of this vision into working prototypes. These in turn became the core of the modern personal computer that Steve Jobs famously "stole" from Xerox to build the Macintosh, while ARPANET evolved into the modern internet.^Dealers In short, the technological revolutions of the 1980s and 1990s trace clearly back to this quite small group of innovators in the 1960s. While we will turn to these more broadly-known later developments shortly, it is worth lingering on the core of the research program that made them possible. ^Dealers: Michael A. Hiltzik, _Dealers of Lightning: Xerox PARC and the Dawn of the Computer Age_ (New York: Harper Business, 2000). At the core of the development of what became the internet was replacing centralized, linear and atomized structures with ⿻ relationships and governance. This happened at three levels that eventually converged in the early 1990s as the World Wide Web:
1. packet switching to replace centralized switchboards,
2. hypertext to replace linear text,
3. and open standard setting processes to replace both government and corporate top-down decision-making
All three ideas had their seeds at the edges of the early community Lick formed and grew into core features of the ARPANET community.
While the concept of networks, redundancy and sharing permeate Lick's original vision, it was Paul Baran's 1964 report "On Distributed Communications" that clearly articulated how and why communications networks should strive for a ⿻ rather than centralized structure.^Baran ^Baran: Paul Baran, "On Distributed Communications Networks," *IEEE Transactions on Communications Systems* 12, no. 1 (1964): 1-9. Baran argued that while centralized switchboards achieved high reliability at low cost under normal conditions, they were fragile to disruptions. Conversely, networks with many centers could be built with cheap and unreliable components and still withstand even quite devastating attacks by "routing around damage", taking a dynamic path through the network based on availability rather than prespecified planning. While Baran received support and encouragement from scientists at Bell Labs, his ideas were roundly dismissed by AT&T, the national telephone monopoly in whose culture high-quality centralized dedicated machinery was deeply entrenched.
Despite the apparent threat it posed to that private interest, packet switching caught the positive attention of another organization that owed its genesis to the threat of devastating attacks: ARPA. At a 1967 conference, ARPANET's first program manager, Lawrence Roberts, learned of packet switching through a presentation by Donald Davies, who concurrently and independently developed the same idea as Baran, and drew on Baran's arguments that he soon learned of to sell the concept to the team. Figure A shows the decentralized logical structure of early ARPANET that resulted
<figure>
</figure>
<br></br>
If one path to networked thinking was thus motivated by technical resilience, another was motivated by creative expression. Ted Nelson trained as a sociologist, was inspired in his work by a visit to campus he hosted in 1959 by cybernetic pioneer Margaret Mead's vision of democratic and pluralistic media and developed into. an artist. Following these early experiences, he devoted his life beginning in his early 20s to the development of "Project Xanadu(https://www.xanadu.net/)", which aimed to create a revolutionary human-centered interface for computer networks. While Xanadu(https://www.youtube.com/watch?v=Bqx6li5dbEY) had so many components that Nelson considered indispensable that it was not released fully until the 2010s, its core idea, co-developed with Engelbart, was "hypertext" as Nelson labeled it. Nelson imagined hypertext as a way to liberate communication from the tyranny of a linear interpretation imposed by an original author, empowering a "pluralism(https://cs.brown.edu/people/nmeyrowi/LiteraryMachinesChapter2.pdf)" (as he labeled it) of paths through material through a network of (bidirectional) links connecting material in a variety of sequences.^Nelson This "choose your own adventure"^ChooseYourOwnAdventure quality is most familiar today to internet users in their browsing experiences but showed up earlier in commercial products in the 1980s (such as computer games based on hypercard). Nelson imagined that such ease of navigation and recombination would enable the formation of new cultures and narratives at unprecedented speed and scope. The power of this approach became apparent to the broader world when Tim Berners-Lee made it central to his "World Wide Web(https://www.w3.org/History.html)" approach to navigation in the early 1990s, ushering in the era of broad adoption of the internet. While Engelbart and Nelson were lifelong friends and shared many similar visions, they took very different paths to realizing them, each of which (as we will see) held an important seed of truth. Engelbart, while also a visionary, was a consummate pragmatist and a smooth political operator, and went on to be recognized as the pioneer of personal computing. Nelson was an artistic purist whose relentless pursuit over decades of Xanadu embodying all of his seventeen enumerated principles(https://en.wikipedia.org/wiki/Project_Xanadu#Original_17_rules) buried his career. As an active participant in Lick's network, Engelbart conversely tempered his ambition with the need to persuade other network nodes to support, adopt or at least inter-operate with his approach. As different user interfaces and networking protocols proliferated, retreated from the pursuit of perfection. Engelbart, and even more his colleagues across the project, instead began to develop a culture of collegiality, facilitated by the communication network the were building, across the often competing universities they worked at. The physical separation made tight coordination of networks impossible, but work to ensure minimal inter-operation and spreading of clear best practices became a core characteristic of the ARPANET community.
This culture manifested in the development of the "Request for Comments" (RFC) process by Steve Crocker, arguably one of the first "wiki"-like processes of informal and mostly additive collaboration across many geographically and sectorally (governmental, corporate, university) dispersed collaborators. This in turn contributed to the common Network Control Protocol and, eventually, Transmission Control and Internet Protocols (TCP/IP) under the famously mission-driven but inclusive and responsive leadership of Vint Cerf and Bob Kahn between 1974 when TCP was first circulated as RFC 675 and 1983 when they became the official ARPANET protocols. At the core of the approach was the vision of a "network of networks" that gave the "internet" its name: that many diverse and local networks (at universities, corporations and government agencies) could inter-operate sufficiently to permit the near-seamless communication across long distances, in contrast to centralized networks (such as France's concurrent Minitel) that were standardized from the top down by a government.^Minitel Together these three dimensions of networking (of technical communication protocols, communicative content and governance of standards) converged to create the internet we know today. ^Minitel: Mailland and Driscoll, op. cit. ネットワークのネットワーク
テイラーとリックは自然な同僚でした。テイラーは博士号を取得していませんでしたが、彼の研究分野も精神音響学であり、リックがIPTOのリーダーを務めていた時期に、当時ARPAから分離したばかりのNASAでリックのカウンターパートを務めていました。リックの退任(1965年)直後、テイラーはIPTOに移り、イヴァン・サザーランドの指導の下でリックのネットワークビジョンの開発を支援しました。その後サザーランドは学界に戻り、テイラーがIPTOと、より控えめにARPANETと名付けられたネットワークの責任者となりました。彼は自身の権限を使って、リックの以前の所属先であるBBNに、ARPANETバックボーンの最初の実用プロトタイプの構築を委託しました。エンゲルバートによるパーソナルコンピューティングのデモンストレーションとARPANETの最初の成功的な試験によって勢いが高まる中、リックとテイラーは1968年の論文「通信装置としてのコンピュータ」で、数十年後のパーソナルコンピューティング、インターネット、さらにはスマートフォンの文化となるものの多くを描いたビジョンを明確に示しました。
1969年までに、テイラーはARPANETのミッションが成功に向かっていると感じ、ゼロックスPARCに移り、そこでコンピュータサイエンス研究所を率いて、このビジョンの多くを実用的なプロトタイプへと発展させました。これらは後に、スティーブ・ジョブズが有名に「盗んだ」とされるマッキントッシュの開発の核となり、一方ARPANETは現代のインターネットへと進化していきました。つまり、1980年代と1990年代の技術革命は、1960年代のこのかなり小規模な革新者グループに明確にさかのぼることができます。これらのより広く知られた後の発展については後ほど触れますが、ここではまず、それらを可能にした研究プログラムの核心に注目する価値があります。
インターネットとなったものの開発の核心には、中央集権的、線形的、原子化された構造を⿻的な関係とガバナンスに置き換えることがありました。これは1990年代初頭にワールドワイドウェブとして収束する3つのレベルで起こりました:
1. 中央集権的な交換機を置き換えるパケット交換
2. 線形的なテキストを置き換えるハイパーテキスト
3. 政府と企業のトップダウンの意思決定を置き換えるオープンな標準設定プロセス
これら3つのアイデアはすべて、リックが形成した初期のコミュニティの周縁部に萌芽があり、ARPANETコミュニティの中核的な特徴へと成長していきました。
ネットワーク、冗長性、共有の概念はリックの当初のビジョンに浸透していましたが、通信ネットワークが中央集権的な構造ではなく⿻的な構造を目指すべき理由とその方法を明確に示したのは、ポール・バランの1964年の報告書「分散型通信について」でした。
バランは、中央集権的な交換機は通常の条件下では低コストで高い信頼性を達成できるものの、混乱に対して脆弱であると主張しました。対照的に、多くの中心を持つネットワークは、安価で信頼性の低い部品で構築されても、事前に定められた計画ではなく、利用可能性に基づいてネットワークを通る動的な経路を取ることで「損害を迂回」し、かなり壊滅的な攻撃にも耐えることができました。バランはベル研究所の科学者たちから支援と励ましを受けましたが、高品質な中央集権的専用機器が深く根付いていた文化を持つ国内電話独占企業AT&Tからは、彼のアイデアは完全に却下されました。
それが民間の利益に明らかな脅威をもたらすにもかかわらず、パケット交換は、壊滅的な攻撃の脅威からその起源を持つ別の組織、ARPAの肯定的な注目を集めました。1967年の会議で、ARPANETの最初のプログラムマネージャーであるローレンス・ロバーツは、バランと同時期に独立して同じアイデアを開発したドナルド・デービスのプレゼンテーションを通じてパケット交換を知り、後に知ることになるバランの主張を活用してこの概念をチームに売り込みました。図Aは、その結果として生まれた初期ARPANETの分散型の論理構造を示しています。
もし一つの道筋がこのようにして技術的な回復力によって動機づけられたとすれば、もう一つは創造的な表現によって動機づけられました。社会学者として訓練を受けたテッド・ネルソンは、1959年のキャンパス訪問時の民主的で多元的なメディアに関するサイバネティクスのパイオニア、マーガレット・ミードのビジョンに触発され、アーティストとして発展していきました。これらの初期の経験に続いて、彼は20代前半から「プロジェクト・ザナドゥ」の開発に人生を捧げました。これは、コンピュータネットワークのための革新的な人間中心のインターフェースを作ることを目指したものでした。ザナドゥは、ネルソンが不可欠と考える要素があまりにも多かったため2010年代まで完全にはリリースされませんでしたが、その中核的なアイデアは、エンゲルバートと共同で開発された「ハイパーテキスト」(ネルソンがそう名付けた)でした。
ネルソンは、ハイパーテキストを、オリジナルの作者によって課される線形的な解釈の支配から通信を解放し、素材を様々な順序でつなぐ(双方向の)リンクのネットワークを通じて、素材への「多元主義」(彼の言葉)的な道筋を可能にする方法として構想しました。この「自分で冒険を選ぶ」という特質は、今日のインターネットユーザーには閲覧体験として最もなじみ深いものですが、1980年代の商用製品(ハイパーカードを基にしたコンピュータゲームなど)でより早く登場しました。ネルソンは、このような容易なナビゲーションと再結合により、前例のないスピードと範囲で新しい文化とナラティブの形成が可能になると想像しました。このアプローチの力は、ティム・バーナーズ=リーが1990年代初頭に「ワールド・ワイド・ウェブ」のナビゲーションアプローチの中心にこれを据えたとき、より広い世界に明らかとなり、インターネットの広範な採用の時代を導きました。
エンゲルバートとネルソンは生涯の友人で、多くの類似したビジョンを共有していましたが、それらを実現するために異なる道を選びました。それぞれが(後に見るように)重要な真実の種を含んでいました。エンゲルバートは、やはりビジョナリーでありながら、徹底的な実践主義者であり、円滑な政治的オペレーターでもあり、後にパーソナルコンピューティングのパイオニアとして認められることになりました。ネルソンは芸術的な純粋主義者で、彼が挙げた17の原則すべてを具現化したザナドゥを何十年にもわたって執拗に追求し続けたことで、自身のキャリアを埋没させてしまいました。
リックのネットワークの活発な参加者として、エンゲルバートは逆に、ネットワークの他のノードに自身のアプローチを支持し、採用し、あるいは少なくとも相互運用してもらう必要性によって、その野心を抑制しました。異なるユーザーインターフェースとネットワークプロトコルが増殖するにつれ、完璧さの追求から撤退しました。エンゲルバート、そしてさらにプロジェクト全体の彼の同僚たちは、代わりに、彼らが所属する競合する大学間での同僚性の文化を、彼らが構築していたコミュニケーションネットワークを通じて発展させ始めました。物理的な距離によってネットワークの緊密な調整は不可能でしたが、最小限の相互運用性を確保し、明確なベストプラクティスを広めるための取り組みが、ARPANETコミュニティの中核的な特徴となっていきました。
この文化は、スティーブ・クロッカーによる「Request for Comments(RFC)」プロセスの開発に表れました。これは、おそらく地理的にも分野的にも(政府、企業、大学)分散した多くの協力者間での、非公式で主に追加的な協力による最初の「ウィキ」的なプロセスの一つでした。これは次第に、共通のネットワーク制御プロトコル、そして最終的には、ヴィント・サーフとボブ・カーンの有名な使命志向でありながら包括的で応答性の高いリーダーシップの下での伝送制御プロトコルとインターネットプロトコル(TCP/IP)へと発展していきました。1974年にTCPがRFC 675として最初に回覧されてから、1983年にそれらが公式のARPANETプロトコルとなるまでの期間です。このアプローチの核心には、「ネットワークのネットワーク」というビジョンがあり、これが「インターネット」にその名前を与えました:多様なローカルネットワーク(大学、企業、政府機関の)が、フランスの同時期のMinitelのような政府によってトップダウンで標準化された中央集権的なネットワークとは対照的に、長距離通信を可能にするために十分に相互運用できるというものでした。ネットワーキングのこれら3つの次元(技術的通信プロトコル、コミュニケーションコンテンツ、標準のガバナンス)が一緒になって、今日私たちが知るインターネットを生み出しました。
Triumph and tragedy
Much of what resulted from this project is so broadly known it hardly bears repeating here. During the 1970's, Taylor's Xerox PARC produced a series of expensive, and thus commercially unsuccessful, but revolutionary "personal workstations" that incorporated much of what became the personal computer of the 1990s. At the same time, as computer components were made available to broader populations, businesses like Apple and Microsoft began to make cheaper and less user-friendly machines available broadly. Struggling to commercialize its inventions, Xerox allowed Apple Co-Founder Steve Jobs access to its technology in exchange for a stake, resulting in the Macintosh's ushering in of modern personal computing and Microsoft's subsequent mass scaling through their Windows operating system. By 2000, a majority of Americans had a personal computer in their homes. Internet use has steadily spread, as pictured in Figure B.
勝利と悲劇
このプロジェクトから生まれた多くのことは、広く知られているためここで繰り返す必要はほとんどありません。1970年代の間、テイラーのゼロックスPARCは一連の高価で、そのため商業的には成功しなかったものの、革新的な「パーソナルワークステーション」を生産し、それらは1990年代のパーソナルコンピュータとなるものの多くを組み込んでいました。同時に、コンピュータ部品が広く入手可能になるにつれ、アップルやマイクロソフトのような企業が、より安価でユーザーフレンドリーではない機械を広く提供し始めました。自社の発明の商業化に苦心していたゼロックスは、株式と引き換えにアップルの共同創設者スティーブ・ジョブズに技術へのアクセスを許可し、その結果マッキントッシュによる現代のパーソナルコンピューティングの幕開けと、その後のマイクロソフトによるWindowsオペレーティングシステムを通じた大規模な展開につながりました。2000年までに、アメリカ人の過半数が家庭にパーソナルコンピュータを持つようになりました。インターネットの利用は図Bに示されるように着実に広がっていきました。
<figure>
**<figcaption>Figure 3-3-B. Population share with internet access over time in the world and various regions. Source: Our World in Data.^WiD</figcaption>** </figure>
<br></br>
#### The internet and its discontents
And much as it had developed in parallel from the start, the internet grew to connect those personal computers. During the late 1960s and early 1970s, a variety of networks grew up in parallel to the largest ARPANET, including at universities, governments outside the United States, international standards bodies and inside corporations like BBN and Xerox. Under the leadership of Kahn and Cerf and with support from ARPA (now renamed DARPA to emphasize its "defense" focus), these networks began to harness the TCP/IP protocol to inter-operate. As this network scaled, DARPA looked for another agency to maintain it, given the limits of its advanced technology mission. While many US government agencies took their hand, the National Science Foundation had the widest group of scientific participants and their NSFNET quickly grew to be the largest network, leading ARPANET to be decommissioned in 1990. At the same time, NSFNET began to interconnect with networks in other wealthy countries.
One of those was the United Kingdom, where researcher Tim Berners-Lee in 1989 proposed a "web browser", "web server" and a Hypertext Mark-Up Language (HTML) that fully connected hypertext to packet-switching and made internet content far more available to a broad set of end users. From the launch of Berners-Lee's World Wide Web (WWW) in 1991, internet usage grew from roughly 4 million people (mostly in North America) to over 400 million (mostly around the world) by the end of the millennium. With internet start-ups booming in Silicon Valley and life for many beginning its migration online though the computers many now had in their home, the era of networked personal computing (of "The Computer as a Communication Device") had arrived.^ComputerasCommunicationDevice In the boom and bust euphoria of the turn of the millennium, few people in the tech world paid attention to the specter haunting the industry, the long-forgotten Ted Nelson. Stuck on his decades-long quest for the ideal networking and communication system, Nelson ceaselessly warned of the insecurity, exploitative structure and inhumane features of the emerging WWW design. Without secure identity systems (Xanadu Principles 1 and 3), a mixture of anarchy and land-grabs by nation states and corporate actors would be inevitable. Without embedded protocols for commerce (Xanadu Principles 9 and 15), online work would become devalued or the financial system controlled by monopolies. Without better structures for secure information sharing and control (Xanadu Principles 8 and 16), both surveillance and information siloing would be pervasive. Whatever its apparent success, the WWW-Internet was doomed to end badly.
While Nelson was something of an oddball, his concerns were surprisingly broadly shared among even the mainstream internet pioneers who would seem to have every reason to celebrate their success. As early as 1980, while TCP/IP was coalescing, Lick foresaw in his classic essay "Computers and Government" "two scenarios" (one good, the other bad) for the future of computing: it could be dominated and its potential stifled by monopolistic corporate control or there could be a full societal mobilization that made computing serve and support democracy.^ComputGov In the former scenario, Lick projected all kinds of social ills, one that might make the advent of the information age a net detractor to democratic social flourishing. These included: ^ComputGov: Licklider, "Comptuers and Government", op. cit. 1. Pervasive surveillance and public distrust of government.
2. Paralysis of government's ability to regulate or enforce laws, as they fall behind the dominant technologies citizens use.
3. Debasement of creative professions.
4. Monopolization and corporate exploitation.
5. Pervasive digital misinformation.
6. Siloing of information that undermines much of the potential of networking.
7. Government data and statistics becoming increasingly inaccurate and irrelevant.
8. Control by private entities of the fundamental platforms for speech and public discourse.
^Jaron: Jaron Lanier, _You Are Not a Gadget: A Manifesto_ (New York: Vintage, 2011) and _Who Owns the Future?_ (New York: Simon & Schuster, 2014). インターネットとその不満分子たち
そして、最初から並行して発展してきたように、インターネットはそれらのパーソナルコンピュータを接続するまでに成長しました。1960年代後半から1970年代初頭にかけて、最大のARPANETと並行して、大学、アメリカ以外の政府、国際標準化機関、BBNやゼロックスなどの企業内部など、様々なネットワークが成長していきました。カーンとサーフのリーダーシップの下、そしてARPA(今やその「防衛」への焦点を強調するためDARPAと改名)の支援を受けて、これらのネットワークはTCP/IPプロトコルを活用して相互運用を開始しました。このネットワークが拡大するにつれ、DARPAは先進技術というミッションの制限から、それを維持する別の機関を探しました。多くの米国政府機関が手を挙げましたが、全米科学財団は最も広範な科学的参加者を持っており、彼らのNSFNETはすぐに最大のネットワークとなり、1990年にARPANETは廃止されることになりました。同時に、NSFNETは他の豊かな国々のネットワークとの相互接続を開始しました。
その一つが英国で、そこの研究者ティム・バーナーズ=リーは1989年に「ウェブブラウザ」、「ウェブサーバー」、そしてハイパーテキストをパケット交換に完全に接続し、インターネットコンテンツをより広範なエンドユーザーが利用できるようにしたハイパーテキストマークアップ言語(HTML)を提案しました。バーナーズ=リーのワールド・ワイド・ウェブ(WWW)の1991年の立ち上げから、インターネットの利用者は約400万人(主に北米)から2000年末までに4億人以上(主に世界中)に成長しました。シリコンバレーでインターネットスタートアップが急成長し、多くの人々の生活が今や家庭にあるコンピュータを通じてオンラインへと移行し始め、ネットワーク化されたパーソナルコンピューティング(「通信装置としてのコンピュータ」)の時代が到来したのです。
千年紀の変わり目の興奮と熱狂の中で、テック界でこの業界につきまとう亡霊、長く忘れられていたテッド・ネルソンに注目する人はほとんどいませんでした。理想的なネットワーキングとコミュニケーションシステムを求める数十年にわたる探求に固執していたネルソンは、新興のWWWデザインの不安定性、搾取的構造、非人間的な特徴について絶え間なく警告を発していました。セキュアなアイデンティティシステム(ザナドゥ原則1と3)がなければ、国家と企業アクターによる無秩序と土地の収奪は避けられないだろう。商取引のための埋め込まれたプロトコル(ザナドゥ原則9と15)がなければ、オンラインでの仕事は価値を下げられるか、金融システムは独占によって支配されることになる。セキュアな情報共有と制御のためのより良い構造(ザナドゥ原則8と16)がなければ、監視と情報のサイロ化の両方が蔓延することになる。表面的な成功がどうであれ、WWW-インターネットは悪い結末を迎えることは避けられないと警告したのです。
ネルソンはやや変わり者でしたが、彼の懸念は、自分たちの成功を祝う十分な理由があるはずのメインストリームのインターネットパイオニアたちの間でも、驚くほど広く共有されていました。TCP/IPが形成されつつあった1980年の時点で、リックは古典的なエッセイ「コンピュータと政府」の中で、コンピューティングの未来について「2つのシナリオ」(一つは良い、もう一つは悪い)を予見していました:それは独占的な企業の支配によって支配され、その可能性が抑制されるか、あるいはコンピューティングを民主主義に役立て、支援する完全な社会的動員が行われるかのどちらかでした。前者のシナリオで、リックは情報時代の到来が民主的な社会の繁栄にとってマイナスとなりうる、あらゆる種類の社会的弊害を予測しました。それらには以下が含まれていました:
1 広範な監視と政府に対する国民の不信感
2 支配的な技術に遅れを取るにつれて、政府の規制や法執行能力の麻痺
3 創造的な職業の価値の低下
4 独占化と企業による搾取
5 広範なデジタル誤情報
6 ネットワーキングの可能性の多くを損なう情報のサイロ化
7 政府のデータと統計が次第に不正確で無関係なものになっていく
8 言論と公的議論の基本的なプラットフォームを民間企業が支配
インターネットの採用が広がるにつれて、そのような不満はますます関係のないものに見えました。政府は彼が想像したほど中心的な役割を果たさなかったものの、2000年までに、彼の警告を認識していた数少ないコメンテーターでさえ、確実にリックのシナリオ2の道を進んでいると考えていました。しかし、新しい千年紀の最初の10年の終わりごろには、いくつかの場所で懸念が高まっていました。バーチャルリアリティのパイオニアであるジャロン・ラニアは、『あなたはガジェットではない』と『誰が未来を所有するのか?』という2冊の本で警鐘を鳴らし、インターネットの未来についてのネルソンと自身のバージョンのリックの懸念を強調しました。これらは当初、単にネルソンの周辺的なアイデアを増幅させただけのように見えましたが、上述の「情報技術と民主主義:広がる溝」で論じた一連の世界的な出来事により、最終的に世界の多くが発展したインターネット経済と社会の限界を認識するようになり、テックラッシュ(技術への反発)を引き起こす一助となりました。これらのパターンは、リックとネルソンの警告と驚くほど類似していました。インターネットの勝利は、最初に見えたよりもはるかにピュロス的なものだったのかもしれません。
Losing our dao
How did we fall into a trap clearly described by the founders of hypertext and the internet? After having led the development of the internet, why did government and the universities not rise to the challenge of the information age following the 1970s?
It was the warning signs that motivated Lick to put pen to paper in 1980 as the focus of ARPA (now DARPA) shifted away from support for networking protocols towards more directly weapons-oriented research. Lick saw this resulting from two forces on opposite ends of the political spectrum. On the one hand, with the rise of "small government conservatism" that would later be labeled "neoliberalism", government was retreating from proactively funding and shaping industry and technology. On the other hand, the Vietnam War turned much of the left against the role of the defense establishment in shaping research, leading to the Mansfield Amendments(https://link.springer.com/chapter/10.1007/978-1-349-06430-4_6) of 1970, 1971 and 1973 that prohibited ARPA from funding any research not directly related to the "defense function".^Mansfield Together these were redirecting DARPA's focus to technologies like cryptography and artificial intelligence that were seen as directly supporting military objectives. ^Mansfield: Phil Williams, "Whatever Happened to the Mansfield Amendment?" _Survival: Global Politics and Strategy_ 18, no. 4 (1976): 146-153 and "The Mansfield Amendment of 1971" in _The Senate and US Troops in Europe_ (London, Palgrave Macmillan: 1985): pp. 169-204. Yet even if the attention of the US government had not shifted, the internet was quickly growing out of its purview and control. As it became an increasingly global network, there was (as Dewey predicted) no clear public authority to make the investments needed to deal with the socio-technical challenges needed to make a network society a broader success. To quote Lick
From the point of view of computer technology itself, export...fosters computer research and development but that (f)rom the point of view of mankind...the important thing would...be a wise rather than a rapid...development...Such crucial issues as security, privacy, preparedness, participation, and brittleness must be properly resolved before one can conclude that computerization and programmation are good for the individual and society...Although I do not have total confidence in the ability of the United States to resolve those issues wisely, I think it is more likely than any other country to do so. That makes me doubt whether export of computer technology will do as much for mankind as a vigorous effort by the United States to figure out what kind of future it really wants and then to develop the technology needed to realize it. The declining role of public and social sector investment left core functions/layers that leaders like Lick and Nelson saw for the internet (e.g. identity, privacy/security, asset sharing, commerce) to which we return below absent. While there were tremendous advances to come in both applications running on top of the internet and in the WWW, much of the fundamental investment in protocols was wrapping up by the time of Lick's writing. The role of the public and social sectors in defining and innovating the network of networks was soon eclipsed.
Into the resulting vacuum stepped the increasingly eager private sector, flush with the success of the personal computer and inflated by the stirring celebrations of Reagan and Thatcher. While the International Business Machines (IBM) that Lick feared would dominate and hamper the internet's development proved unable to key pace with technological change, it found many willing and able successors. A small group of telecommunications companies took over the internet backbone that the NSF freely relinquished. Web portals, like America Online and Prodigy came to dominate most Americans' interactions with the web, as Netscape and Microsoft vied to dominate web browsing. The neglected identity functions were filled by the rise of Google and Facebook. Absent digital payments were filled in by PayPal and Stripe. Absent the protocols for sharing data, computational power and storage that motivated work on the Intergalactic Computer Network in the first place, private infrastructures (often called "cloud providers") that empowered such sharing (such as Amazon Web Services and Microsoft Azure) became the platforms for building applications.^Tarnoff ^Tarnoff: Ben Tarnoff, _Internet for the People: The Fight for Our Digital Future_ (New York: Verso, 2022). While the internet backbone continued to improve in limited ways, adding security layers and some encryption, the basic features Lick and Nelson saw as essential were never integrated. Public financial support for the networking protocols largely dried up, with remaining open source development largely consisting of volunteer work or work supported by private corporations. As the world woke to the Age of the Internet, the dreams of its founders faded.
「Losing our dao」(我々の道を失って)のセクションを翻訳します:
我々の道を失って
ハイパーテキストとインターネットの創始者たちによって明確に説明された罠に、私たちはどのようにして陥ってしまったのでしょうか?インターネットの開発を主導した後、なぜ政府と大学は1970年代以降の情報時代の課題に立ち向かわなかったのでしょうか?
それは、ARPAの焦点が(今やDARPAと改称)ネットワークプロトコルの支援からより直接的な兵器指向の研究へと移行していく中で、リックが1980年にペンを取らせた警告のサインでした。リックは、これが政治的スペクトルの両端にある二つの力の結果だと見ていました。一方では、後に「新自由主義」と呼ばれることになる「小さな政府の保守主義」の台頭により、政府は産業と技術を積極的に資金提供し形作ることから撤退していました。他方では、ベトナム戦争により、左派の多くが研究を形作る国防機構の役割に反対するようになり、これは1970年、1971年、1973年のマンスフィールド修正案につながり、ARPAが「防衛機能」に直接関係のない研究に資金を提供することを禁止しました。これらが合わさって、DARPAの焦点は、軍事目的を直接支援すると考えられた暗号技術や人工知能などのテクノロジーへと向かわせることになったのです。
しかし、米国政府の注目が移行していなかったとしても、インターネットはすぐにその監督と管理の範囲を超えて成長していました。それが increasingly グローバルなネットワークになるにつれて、(デューイが予測したように)ネットワーク社会をより広範な成功に導くために必要な社会技術的課題に対処するために必要な投資を行う明確な公的機関が存在しませんでした。リックの言葉を引用すると:
「コンピュータ技術自体の観点からすれば、輸出は...コンピュータの研究開発を促進するが、人類の観点からすれば...重要なのは、賢明な発展であって、急速な発展ではない...セキュリティ、プライバシー、準備態勢、参加、脆弱性といった重要な問題は、コンピュータ化とプログラム化が個人と社会にとって良いものだと結論づける前に、適切に解決されなければならない...私は米国がこれらの問題を賢明に解決する能力に完全な確信を持っているわけではないが、他のどの国よりもそれを実現する可能性が高いと考えている。そのため、コンピュータ技術の輸出は、米国が本当に望む未来を考え出し、それを実現するために必要な技術を開発するための活発な努力ほどには、人類に貢献しないのではないかと疑問に思う。」
公共部門と社会部門の投資の減少により、リックとネルソンがインターネットに不可欠だと考えていた中核的な機能/層(例えば、アイデンティティ、プライバシー/セキュリティ、資産共有、商取引)が欠如することになり、これらについては後で詳しく述べます。インターネット上で動作するアプリケーションやWWWには大きな進展がありましたが、プロトコルへの基本的な投資の多くは、リックが執筆していた時期までに終わりを迎えていました。ネットワークのネットワークを定義し革新する上での公共部門と社会部門の役割は、すぐに影が薄くなっていったのです。
その結果生じた空白を埋めたのは、パーソナルコンピュータの成功に勢いづき、レーガンとサッチャーの熱烈な称賛によって膨らんだ、ますます意欲的になっていった民間部門でした。リックがインターネットの発展を支配し妨げるのではないかと恐れていたIBM(インターナショナル・ビジネス・マシーンズ)は技術的な変化についていけないことが判明しましたが、多くの意欲的で有能な後継者を見出しました。少数の通信会社がNSFが自由に手放したインターネットバックボーンを引き継ぎました。アメリカ・オンラインやプロディジーのようなウェブポータルが、ほとんどのアメリカ人のウェブとの対話を支配するようになり、ネットスケープとマイクロソフトがウェブブラウジングの支配権を争いました。無視されていたアイデンティティ機能は、グーグルとフェイスブックの台頭によって埋められました。欠如していたデジタル決済は、ペイパルとストライプによって埋められました。そもそもインターギャラクティック・コンピュータ・ネットワークの取り組みの動機となったデータ、計算能力、ストレージを共有するためのプロトコルが欠如していたため、そのような共有を可能にする民間インフラ(しばしば「クラウドプロバイダー」と呼ばれる、アマゾン・ウェブ・サービスやマイクロソフト・アジュールなど)がアプリケーションを構築するためのプラットフォームとなりました。
インターネットバックボーンはセキュリティ層と暗号化の追加など、限定的な改善を続けましたが、リックとネルソンが不可欠だと考えた基本的な機能は決して統合されませんでした。ネットワークプロトコルへの公的な資金支援は大幅に減少し、残されたオープンソース開発の大部分は、ボランティア作業か民間企業による支援作業で構成されるようになりました。世界がインターネット時代に目覚めたとき、その創設者たちの夢は薄れていったのです。
Flashbacks
Yet faded dreams have a stubborn persistence, nagging throughout a day. While Lick passed away in 1990, many of the early internet pioneers lived to see their triumph and tragedy.
<figure>
</figure>
<br></br>
Ted Nelson (shown in Figure C) and many other pioneers in Project Xanadu continue to carry their complaints about and reforms to the internet forward to this day. Engelbart, until his death in 2013, continued to speak, organize and write about his vision of "boosting Collective IQ". These activities included supporting, along with Terrence Winograd (PhD advisor to the Google founders), a community around Online Deliberation based at Stanford University that nurtured key leaders of the next generation of ⿻ as we will see below. While none of these efforts met with the direct successes of their earlier years, they played critical roles as inspiration and in some case even incubation for a new generation of ⿻ innovators, who have helped revive and articulate the dream of ⿻.
フラッシュバック
しかし、薄れゆく夢は頑固な持続性を持ち、一日中心に引っかかり続けます。リックは1990年に亡くなりましたが、多くの初期のインターネットパイオニアたちは、彼らの勝利と悲劇を目の当たりにすることになりました。テッド・ネルソン(図Cに示される)や他の多くのプロジェクト・ザナドゥのパイオニアたちは、今日に至るまでインターネットへの不満と改革を訴え続けています。エンゲルバートは2013年に亡くなるまで、「集合知能の向上」についてのビジョンについて、講演し、組織し、執筆し続けました。これらの活動には、(Googleの創設者の博士課程指導教官である)テレンス・ウィノグラッドとともに、スタンフォード大学を拠点とするオンライン審議に関するコミュニティを支援することが含まれており、以下で見るように、次世代の⿻的リーダーたちの重要な指導者を育成しました。これらの取り組みはどれも初期の年月のような直接的な成功には至りませんでしたが、新世代の⿻的イノベーターたちにとってのインスピレーションとして、そして場合によっては育成の場としても重要な役割を果たし、彼らは⿻の夢を復活させ、明確に示すことに貢献したのです。
#### Nodes of light
While, as we highlighted in the introduction, the dominant thrust of technology has developed in directions that put it on a collision course with democracy, this new generation of leaders has formed a contrasting pattern, scattered but clearly discernible nodes of light that together give hope that with renewed common action, ⿻ could one day animate technology writ large. Perhaps the most vivid example for the average internet user is Wikipedia(https://www.wikipedia.org). This open, non-profit collaborative project has become the leading global resource for reference and broadly shared factual information.^teblunthuis In contrast to the informational fragmentation and conflict that pervades much of the digital sphere that we highlighted in the introduction, Wikipedia has become a widely accepted source of shared understanding. It has done this through harnessing large-scale, open, collaborative self-governance.^hwang Many aspects of this success are idiosyncratic and attempts to directly extend the model have had mixed success; trying to make such approaches more systematic and pervasive is much of our focus below. But the scale of the success is quite remarkable.^Wiki Recent analysis suggests that most web searches lead to results that prominently include Wikipedia entries. For all the celebration of the commercial internet, this one public, deliberative, participatory, and roughly consensual resource is perhaps its most common endpoint. The concept of "Wiki," from which Wikipedia derives its name, comes from a Hawaiian word meaning "quick," and was coined by Ward Cunningham in 1995 when he created the first wiki software, WikiWikiWeb. Cunningham aimed to extend the web principles highlighted above of hypertextual navigation and inclusive ⿻ governance by allowing the rapid creation of linked databases.^Wikiway Wikis invite all users, not just experts, to edit or create new pages using a standard web browser and to link them to one another, creating a dynamic and evolving web landscape in the spirit of ⿻. ^Wikiway: Bo Leuf and Ward Cunningham, _The Wiki Way: Quick Collaboration on the Web_ (Boston: Addison-Wesley, 2001). While Wikis themselves have found significant applications, they have had an even broader impact in helping stimulate the "groupware" revolution that many internet users associate with products like Google docs but has its roots in the open source WebSocket protocol.^group HackMD(https://hackmd.io/), a collaborative real-time Markdown editor, is used within the g0v community to collaboratively edit and openly share documents such as meeting minutes.^Japan While collaboratively constructed documents illustrate this ethos, it more broadly pervades the very foundation of the online world itself. Open source software (OSS) embodies this ethos of participatory, networked, transnational self-governance. Significantly represented by the Linux operating system, OSS underlies the majority of public cloud infrastructures and connects with many through platforms like GitHub, boasting over 100 million contributors, growing rapidly in recent years especially in the developed world as pictured in Figure D. The Android OS, which powers over 70% of all smartphones, is an OSS project, despite being primarily maintained by Google. The success and impact of such "peer production" has forced the broad reconsideration of many assumptions underlying standard economic analysis.^benkler ^group: The term "groupware" was coined by Peter and Trudy Johnson-Lenz in 1978, with early commercial products appearing in the 1990s, such as Lotus Notes, enabling remote group collaboration. Google Docs, originated from Writely launched in 2005, has widely popularized the concept of collaborative real-time editing. ^Japan: Scrapbox(https://scrapbox.io/product), a combination of real-time editor with a wiki system, is utilized by the Japanese forum of this book. Visitors of the forum can read the drafts and add questions, explanations, or links to related topics in real time. This interactive environment supports activities like book reading events, where participants can write questions, engage in oral discussions, or take minutes of these discussions. The feature to rename keywords while maintaining the network structure helps the unification of variations in terminology and provides a process to find the good translation. As more people read through, a network of knowledge is nurtured to aid the understanding of subsequent readers. <figure>
">
**<figcaption>Figure 3-3-D. GitHub contributors as share of working-age population by country. Source: GitHub Innovation Graph^GHgraph, World Bank^WB and Taiwan Ministry of Interior^TaiwanMI .</figcaption>** </figure>
<br></br>
OSS emerged in reaction to the secretive and commercial direction of the software industry that emerged in the 1970s. The free and open development approach of the early days of ARPANET was sustained even after the withdrawal of public funding, thanks to a global volunteer workforce. Richard Stallman(https://en.wikipedia.org/wiki/Richard_Stallman), opposing the closed nature of the Unix(https://en.wikipedia.org/wiki/Unix) OS developed by AT&T, led the "free software movement", promoting the “GNU General Public License” that allowed users to run, study, share, and modify the source code. This was eventually rebranded as OSS, with a goal to replace Unix with an open-source alternative, Linux(https://www.linux.org/), led by Linus Torvalds(https://en.wikipedia.org/wiki/Linus_Torvalds). OSS has expanded across various internet and computing sectors, even earning support from formerly hostile companies like Microsoft, now owner of leading OSS service company GitHub and employer of one of the authors of this book. This represents the practice of ⿻ on a large scale; emergent, collective co-creation of shared global resources. Communities form around shared interests, freely build on each other’s work, vet contributions through unpaid maintainers, and "fork" projects into parallel versions in case of irreconcilable differences. The protocol “git” supports collaborative tracking of changes, with platforms like GitHub and GitLab facilitating millions of developers' participation. This book is a product of such collaboration and has been supported by Microsoft and GitHub.
However, OSS faces challenges such as chronic financial support shortage due to the withdrawal of public funding, as explored by Nadia Eghbal (now Asparouhova) in her book _Working in Public_. Maintainers are often unrewarded and the community's growth increases the burden on them. Nonetheless, these challenges are addressable, and OSS, despite its business model limitations, exemplifies the continuance of the open collaboration ethos (the lost dao) that ⿻ aims to support. Hence, OSS projects will be frequent examples in this book.
^Eghbal: Nadia Eghbal, _Working in Public: The Making and Maintenance of Open Source Software_ (South San Francisco, CA: Stripe Press, 2020). Another contrasting reaction to the shift away from public investment in communication networking was exemplified by the work of Lanier from above. A student and critic of AI pioneer Marvin Minsky, he sought to develop a technological program of the same ambition as AI, but centered around human experience and communication. Seeing existing forms of communication as being constrained by symbols that can be processed by the ears and eyes like words and pictures, he aspired to empower deeper sharing of and empathy for experiences only expressible by sense like touch and proprioception (the internal sense). Through his research and entrepreneurship during the 1980s, this developed into the field of "virtual reality", one that has been a continual source of innovation in user interaction since, from the wired glove^wiredglove to Apple's release of the Vision Pro ^visionpro. Yet, as we highlighted above, Lanier carried forward not only the cultural vision of the computer as a communication device; he also championed Nelson's critique of the gaps and failings of what became the internet. He particularly emphasized the lack of base layer protocols supporting payments, secure data sharing and provenance and financial support for OSS. This advocacy combined with the emergence of (pseudonymous) Satoshi Nakamoto's invention of the Bitcoin protocol in 2008 to inspire a wave of work on these topics in and around "web3" communities that harnesses cryptography and blockchains to create shared understanding of provenance and value.^Nakamoto While many projects in the space have been influenced by Libertarianism and hyper-financialization, the enduring connection to original aspirations of the internet, especially under the leadership of Vitalik Buterin (who founded Ethereum(https://ethereum.org/en/), the largest smart contract platform), has inspired a number of projects, like GitCoin(https://www.gitcoin.co/) and decentralized identity(https://en.wikipedia.org/wiki/Decentralized_identifier), that are central inspirations for ⿻ today as we explore below. Finally and perhaps most closely connected to our own paths to ⿻ have been the movements to revive the public and multisectoral spirit and ideals of the early internet by strengthening the digital participation of governments and democratic civil society. These "GovTech" and "Civic Tech" movements have harnessed OSS-style development practices to improve the delivery of government services and bring the public into the process in a more diverse range of ways. Leaders in the US include Jennifer Pahlka, founder of GovTech pioneer Code4America(https://codeforamerica.org/), and Beth Simone Noveck, Founder of The GovLab(https://thegovlab.org/).[^GovTech] ^GovTech: Jennifer Pahlka, _Recoding America: Why Government is Failing in the Digital Age and How We Can Do Better_ (New York: Macmillan, 2023). Beth Simone Noveck, _Wiki Government: How Technology Can Make Government Better, Democracy Stronger, and Citizens More Powerful_ (New York: Brookings Institution Press, 2010). Noveck, in particular, is a powerful bridge between the early development of ⿻ and its future, having been a driving force behind the Online Deliberation workshops mentioned above, having developed Unchat, one of the earliest attempts at software to serve these goals and which helped inspire the work of vTaiwan and more.^Unchat She went on to pioneer, in her work with the US Patent and Trademark Office and later as Deputy Chief Technology Officer of the US many of the transparent and inclusive practices that formed the core of the g0v movement we highlighted above.^Noveckwork Noveck was a critical mentor not just to g0v but to a range of other ambitious civic technology projects around the world from the Kenya collective crisis reporting platform Ushahidi(https://www.ushahidi.com/) founded by Juliana Rotich(https://en.wikipedia.org/wiki/Juliana_Rotich) and collaborators to a variety of European participative policy-making platforms like Decidim(https://decidim.org/) founded by Francesca Bria(https://www.francescabria.com/) and collaborators and CONSUL(https://consuldemocracy.org/) that arose from the "Indignado" movement parallel to g0v in Spain, on the board of which one of us sits. Yet despite these important impacts, a variety of features of these settings has made it challenging for these examples to have the systemic, national and thus easily traceable macrolevel impacts that g0v had in Taiwan. Other countries have, of course, excelled in various elements of ⿻. Estonia is perhaps the leading example and shares with Taiwan a strong history of Georgism and land taxes, is often cited as the most digitized democratic government in the world and pioneered digital democracy earlier than almost any other country, starting in the late 1990s.^Estoniamodel Finland has built on and scaled the success of its neighbor, extending digital inclusion deeper into society, educational system and the economy than Estonia, as well as adopting elements of digitized democratic participation. Singapore has the most ambitious Georgist-style policies on earth and harnesses more creative ⿻ economic mechanisms and fundamental protocols than any other jurisdiction. South Korea has invested extensively in both digital services and digital competence education. New Zealand has pioneered internet-based voting and harnessed civil society to improve public service inclusion. Iceland has harnessed digital tools to extend democratic participation more extensively than any other jurisdiction. Kenya, Brazil and especially India have pioneered digital infrastructure for development. We will return to many of these examples in what follows. ^Estoniamodel: Gary Anthes, "Estonia: a Model for e-Government" _Communications of the ACM_ 58, no. 6 (2015): 18-20. Yet none of these have institutionalized the breadth and depth of ⿻ approaches to socio-technical organization across sectors that Taiwan has. It is thus more challenging to take these cases as broad national examples on which to found imagination of what ⿻ could mean to the world if it could scale up to bridge the divides of nation, culture and sector and forming both the infrastructural foundation and the mission of global digital society. With that anchoring example and additional hope from these other cases, we now turn to painting in greater depth the opportunity a ⿻ global future holds.
光の結節点
序章で強調したように、技術の主流は民主主義と衝突する方向に発展してきましたが、この新しい世代のリーダーたちは対照的なパターンを形成し、散在してはいるものの明確に識別可能な光の結節点を作り出し、それらが一緒になって、renewed な共同行動によって⿻がいつの日か広く技術全般に生命を吹き込む可能性があるという希望を与えています。一般的なインターネットユーザーにとっておそらく最も鮮やかな例はWikipediaです。 このオープンで非営利の協力的プロジェクトは、参考資料と広く共有された事実情報のための主要なグローバルリソースとなりました。序章で強調したデジタル領域に蔓延する情報の断片化と対立とは対照的に、ウィキペディアは広く受け入れられた共通理解の源となっています。これは、大規模でオープンな協力的な自主管理を活用することで実現されました。この成功の多くの側面は特異的であり、モデルを直接拡張しようとする試みは成功と失敗が混在しています。そのようなアプローチをより体系的で広範なものにしようとする試みは、以下で我々が焦点を当てる部分の多くを占めています。しかし、その成功の規模は実に注目に値します。最近の分析によると、ほとんどのウェブ検索の結果には、ウィキペディアの項目が目立って含まれているとされています。商業的なインターネットがどれほど称賛されようとも、この一つの公共の、熟議的で、参加型で、おおよそ合意に基づくリソースが、おそらくその最も一般的な到達点となっているのです。
「Wiki」という概念(ウィキペディアの名の由来)は、「素早い」を意味するハワイ語に由来し、1995年にワード・カニンガムが最初のウィキソフトウェア、WikiWikiWebを作成した際に考案されました。カニンガムは、すべてのユーザーに、専門家だけでなく、標準的なウェブブラウザを使用してページを編集または作成し、それらを相互にリンクすることを可能にすることで、⿻の精神に基づいてハイパーテキストのナビゲーションと包括的な⿻のガバナンスという上述のウェブの原則を拡張することを目指しました。これにより、動的で進化するウェブの景観が作り出されました。
ウィキそのものが重要な応用を見出している一方で、多くのインターネットユーザーがGoogleドキュメントのような製品と関連付けているものの、実際にはオープンソースのWebSocketプロトコルに起源を持つ「グループウェア」革命を刺激するという、さらに広範な影響を与えました。HackMDという協力的なリアルタイムMarkdownエディタは、g0vコミュニティ内で会議の議事録などの文書を協力して編集し、オープンに共有するために使用されています。協力して構築される文書がこの精神を示していますが、それはオンライン世界の基盤そのものにまでより広く浸透しています。オープンソースソフトウェア(OSS)は、この参加型で、ネットワーク化され、国境を越えた自主管理の精神を体現しています。Linuxオペレーティングシステムによって顕著に代表されるOSSは、パブリッククラウドインフラの大部分の基盤となっており、1億人以上の貢献者を擁するGitHubのようなプラットフォームを通じて多くの人々とつながっています。図Dに示されるように、特に先進国で近年急速に成長しています。世界のスマートフォンの70%以上を動かしているAndroid OSは、主にGoogleによって維持管理されているにもかかわらず、OSSプロジェクトです。このような「ピア生産」の成功と影響力は、標準的な経済分析の基礎となる多くの前提の再考を迫ることとなりました。
OSSは1970年代に台頭してきたソフトウェア産業の秘密主義的で商業的な方向性への反応として出現しました。ARPANETの初期の自由でオープンな開発アプローチは、公的資金が撤退した後も、グローバルなボランティアの労働力のおかげで維持されました。リチャード・ストールマンは、AT&Tが開発したUnix OSの閉鎖的な性質に反対し、「フリーソフトウェア運動」を率い、ユーザーがソースコードを実行、研究、共有、修正することを許可する「GNU一般公衆利用許諾書」を推進しました。これは最終的にOSSとして再ブランド化され、Unixをオープンソースの代替品であるLinuxに置き換えることを目指し、リーナス・トーバルズが主導しました。
OSSは、かつて敵対的だったマイクロソフトのような企業からも支持を得て、インターネットとコンピューティングの様々な分野に拡大しました。マイクロソフトは現在、主要なOSSサービス企業であるGitHubの所有者であり、この本の著者の一人を雇用しています。これは大規模な⿻の実践を表しています:共有されたグローバルリソースの創発的で集合的な共同創造です。コミュニティは共通の関心事を中心に形成され、互いの作業を自由に基づき、無給のメンテナーを通じて貢献を審査し、解決不可能な違いがある場合にはプロジェクトを「フォーク」して並行バージョンを作ります。gitプロトコルは変更の協力的な追跡をサポートし、GitHubやGitLabのようなプラットフォームは何百万人もの開発者の参加を促進しています。この本もそのような協力の産物であり、マイクロソフトとGitHubによって支援されています。
しかし、OSSは公的資金の撤退による慢性的な財政支援不足など、ナディア・エグバル(現アスパルーホヴァ)が著書『Working in Public』で探究したような課題に直面しています。メンテナーはしばしば報酬を得られず、コミュニティの成長は彼らの負担を増大させます。それでもなお、これらの課題は対処可能であり、OSSは、ビジネスモデルの制限にもかかわらず、⿻が支援することを目指すオープンな協力の精神(失われた道)の継続を例示しています。そのため、OSSプロジェクトはこの本で頻繁に例として取り上げられることになります。
コミュニケーションネットワーキングへの公的投資からの転換に対する別の対照的な反応は、前述のラニアの仕事に例示されています。AIのパイオニアであるマービン・ミンスキーの学生であり批評家でもあった彼は、AIと同じ野心を持ちながらも、人間の経験とコミュニケーションを中心に据えた技術プログラムの開発を目指しました。既存のコミュニケーション形態が言葉や画像のような耳や目で処理できる記号によって制約されていることを見て、触覚や固有受容感覚(内部感覚)によってのみ表現できる経験のより深い共有と共感を可能にすることを目指しました。1980年代の研究と起業を通じて、これは「バーチャルリアリティ」の分野へと発展し、有線グローブからアップルのVision Proの発売まで、ユーザーインタラクションにおける継続的なイノベーションの源となってきました。
しかし、上で強調したように、ラニアは通信装置としてのコンピュータの文化的ビジョンだけでなく、インターネットとなったものの欠落と失敗に対するネルソンの批判も引き継ぎました。彼は特に、支払い、セキュアなデータ共有とプロベナンス、そしてOSSへの財政支援をサポートする基礎的なプロトコルの欠如を強調しました。この提唱は、2008年の(匿名の)サトシ・ナカモトによるビットコインプロトコルの発明と相まって、プロベナンスと価値の共有理解を作り出すために暗号技術とブロックチェーンを活用する「web3」コミュニティの周辺でこれらのトピックに関する一連の取り組みを触発しました。この分野の多くのプロジェクトはリバタリアニズムと超金融化の影響を受けてきましたが、特にヴィタリク・ブテリン(最大のスマートコントラクトプラットフォームであるEthereumを設立)のリーダーシップの下で、インターネットの当初の願望との持続的なつながりは、GitCoinや分散型アイデンティティのような、以下で探究するように今日の⿻にとって中心的なインスピレーションとなっているいくつかのプロジェクトを触発しています。
これらの問題に関する他のパイオニアたちは、プロベナンスと価値よりも、コミュニケーションと結合の層により焦点を当てました。彼らの仕事を「分散型ウェブ」または「Fediverse」と呼び、クリスティン・レマー・ウェバーのActivity Pubのようなプロトコルを構築し、これらはMastodonから、Twitterの現在は独立した非営利のBlueSkyイニシアチブまで、メインストリームのソーシャルメディアに代わる非商業的でコミュニティベースの選択肢の基礎となりました。この分野はまた、社会的およびコミュニティ関係を基礎とするアイデンティティとプライバシーを再考するための最も創造的なアイデアの多くを生み出してきました。
最後に、そしておそらく私たち自身の⿻への道のりと最も密接に関連しているのが、政府とデモクラティックな市民社会のデジタル参加を強化することで、初期のインターネットの公共的および多部門的な精神と理想を復活させる運動です。これらの「GovTech」と「Civic Tech」の運動は、OSS型の開発実践を活用して、政府サービスの提供を改善し、より多様な方法で公衆をそのプロセスに参加させてきました。米国のリーダーには、GovTechのパイオニアであるCode4Americaを設立したジェニファー・パルカや、The GovLabを設立したベス・シモーン・ノヴェックが含まれます。
特にノヴェックは、⿻の初期の発展とその未来を結ぶ強力な架け橋となっています。上述のオンライン審議ワークショップの推進力となり、これらの目標に資する最も初期のソフトウェアの試みの一つであるUnchatを開発し、これがvTaiwanなどの取り組みにインスピレーションを与えました。彼女はその後、米国特許商標庁での仕事や後の米国副最高技術責任者としての立場で、私たちが上で強調したg0v運動の核心となった透明性と包摂性の実践の多くを開拓しました。ノヴェックは、g0vだけでなく、ジュリアナ・ロティッチと協力者たちが設立したケニアの集合的危機報告プラットフォームUshahidiから、フランチェスカ・ブリアと協力者たちが設立したDecidimや、スペインでg0vと並行して「インディグナード」運動から生まれたCONSUL(私たちの一人が理事を務めています)のような、様々なヨーロッパの参加型政策立案プラットフォームまで、世界中の他の野心的な市民技術プロジェクトの重要なメンターとなりました。しかし、これらの重要な影響にもかかわらず、これらの環境の様々な特徴により、これらの例が台湾でg0vが持ったような体系的で、国家的で、したがって容易に追跡可能なマクロレベルの影響を持つことは困難でした。
もちろん、他の国々も⿻の様々な要素で卓越した成果を上げています。エストニアはおそらく最も顕著な例で、台湾と同様にジョージズムと土地税の強い歴史を持ち、しばしば世界で最もデジタル化された民主主義政府として引用され、1990年代後半から他のほとんどの国に先駆けてデジタル民主主義を開拓しました。フィンランドは隣国の成功を基に発展させ、デジタルインクルージョンを社会、教育システム、経済の深部にまで拡大し、デジタル化された民主的参加の要素も採用しています。シンガポールは地球上で最も野心的なジョージズム式の政策を持ち、他のどの管轄区域よりも創造的な⿻的経済メカニズムと基本的なプロトコルを活用しています。韓国はデジタルサービスとデジタル能力教育の両方に広範な投資を行ってきました。ニュージーランドはインターネットベースの投票を先駆け、市民社会を活用して公共サービスのインクルージョンを改善してきました。アイスランドは他のどの管轄区域よりも広範にデジタルツールを活用して民主的参加を拡大してきました。ケニア、ブラジル、そして特にインドは開発のためのデジタルインフラを先駆的に構築してきました。これらの例の多くには、以下で再び触れることになります。
しかし、これらの国々のいずれも、台湾のように部門を超えて⿻的アプローチを社会技術的組織に幅広く深く制度化してはいません。したがって、これらの事例を、国、文化、部門の分断を橋渡しし、グローバルなデジタル社会の基盤的インフラと使命の両方を形成する⿻が世界に対して持ちうる意味の広範な国家的例として取り上げることは、より困難です。その基礎となる例と、これらの他の事例からの追加的な希望を得て、私たちは次に、⿻的なグローバルな未来が持つ機会をより深く描写することに移ります。
^teblunthuis: In fact, researchers have studied reading patterns in terms of time spent by users across the globe. Nathan TeBlunthuis, Tilman Bayer, and Olga Vasileva, “Dwelling on Wikipedia,” _Proceedings of the 15th International Symposium on Open Collaboration_, August 20, 2019, https://doi.org/10.1145/3306446.3340829, (pp. 1-14). ^hwang: Sohyeon Hwang, and Aaron Shaw. “Rules and Rule-Making in the Five Largest Wikipedias.” _Proceedings of the International AAAI Conference on Web and Social Media_ 16 (May 31, 2022): 347–57, https://doi.org/10.1609/icwsm.v16i1.19297 studied rule-making on Wikipedia using 20 years of trace data. ^Wiki: In an experiment, McMahon and colleagues found that a search engine with Wikipedia links increased relative click-through-rate (a key search metric) by 80% compared to a search engine without Wikipedia links. Connor McMahon, Isaac Johnson, and Brent Hecht, “The Substantial Interdependence of Wikipedia and Google: A Case Study on the Relationship between Peer Production Communities and Information Technologies,” _Proceedings of the International AAAI Conference on Web and Social Media_ 11, no. 1 (May 3, 2017): 142–51, https://doi.org/10.1609/icwsm.v11i1.